هابر: كيف تكسر قاعدة المعرفة المتقادمة وكلاء LLM وكيفية إصلاح ذلك
نشر هابر تحليلاً عملياً حول سبب إلحاق قاعدة المعرفة المتقادمة الأضرار بعمل وكلاء LLM أكثر من غيابها. يقترح المؤلف التحقق من الروابط المعطلة وحداثة المستندات عبر

На Хабре вышла вторая часть серии о LLM-разработке: автор объясняет, почему устаревшая knowledge base опаснее полного отсутствия документации. Если агенту показать красивый, но неактуальный markdown, он примет его за правду и начнёт ошибаться на уровне архитектуры, статусов и зависимостей.
Почему это важно
Главная мысль проста: LLM доверяет контексту так же, как компилятор доверяет входным данным. Когда в базе знаний лежат старые версии сервисов, битые ссылки и планы, которые давно разошлись с реальностью, агент опирается на ложную карту проекта. В результате ошибки появляются не из-за слабой модели, а из-за того, что ей дали неверное описание среды.
Для команд с десятками параллельных проектов это быстро превращается в системную проблему, а не в разовый недосмотр. Автор подчёркивает, что ручная дисциплина здесь почти не работает. Чем больше документов, репозиториев и сессий с агентом, тем быстрее knowledge base накапливает энтропию.
Даже хорошо структурированный workbench устаревает с момента создания, если его никто не проверяет автоматически. Поэтому вопрос уже не в том, писать документацию или нет, а в том, как встроить в процесс механизмы, которые не дадут ей тихо деградировать и отравлять следующий цикл разработки.
Как ловить устаревание
Базовый ответ — простые автоматические проверки, которые можно запускать вручную или на CI. Автор описывает скрипт, который сначала прогнал свой workbench и сразу нашёл десятки проблем: больше трети внутренних ссылок вели в никуда после миграции документов между репозиториями. Для агента это особенно опасно: он пытается перейти по ссылке, не находит файл и либо теряет контекст, либо начинает достраивать его галлюцинациями. На масштабе это быстро становится постоянным источником дефектов.
- Проверка внутренних ссылок между markdown-файлами Контроль свежести ключевых документов по дате обновления Проверка покрытия: у каждого проекта должен быть workspace-файл * Агрегация TODO из всех markdown-документов в одну точку обзора Отдельно автор советует ввести порог свежести, например 60 дней, и не переписывать каждый документ заново, а делать короткую ревизию фактов: версии, статусы, зависимости, текущие планы. Пара минут на такой проход возвращает документу доверие. Та же логика работает и для TODO: пока задачи рассыпаны по логам, планам и заметкам, команда не видит полную картину. Как только они агрегированы, база знаний снова становится рабочим инструментом, а не архивом случайных заметок.
Правила и ловушки Одних скриптов мало, если сами документы не имеют понятного жизненного цикла.
Автор предлагает помечать их статусами active, reference, draft и archived, а старые материалы складывать в archive/, а не удалять. После каждой фазы работы агент должен обновлять связанные документы, фиксировать незавершённое и при переполнении контекстного окна собирать continuation prompt для следующей сессии. Так база знаний остаётся синхронизированной между сессиями, а не расползается по памяти модели.
Как пишет автор: > «Устаревший план — это тот же отравленный контекст, только с виду безобидный». Во второй части аргумента появляется и обратная сторона: LLM делает автоматизацию слишком дешёвой, поэтому разработчик легко начинает оптимизировать процесс вместо продукта. Ещё один ADR, ещё один скрипт или идеально расписанный pipeline выглядят как прогресс, хотя в production может по-прежнему не быть работающей фичи.
Практический ориентир здесь жёсткий: сначала продукт, затем staging, мониторинг и CI/CD, потом типизация, тесты и более сложные автономные циклы. Если команда строит полную цепочку «гипотеза — генерация — деплой» раньше, чем научилась ловить сломанный merge, она инвестирует в мета-оптимизацию с сомнительным ROI.
Что это значит
Материал на Хабре хорошо попадает в главную боль AI-assisted разработки: качество ответа модели всё сильнее зависит не только от промпта, но и от гигиены контекста вокруг кода. Для команд и соло-разработчиков вывод практический: база знаний должна жить по тем же правилам, что и код — с проверками, статусами и регулярным обновлением. Иначе LLM ускорит не работу, а распространение старых ошибок, которые будут выглядеть правдоподобно и воспроизводиться из сессии в сессию.