Habr AI→ оригинал

Habr AI: вместо сложных agent pipeline разработчикам советуют markdown, git и память сессий

На Habr предложили смотреть на AI-агентов не как на автономный pipeline, а как на рабочую память инженера. Вместо LangChain, RAG и vector DB автор делает ставку

Habr AI: вместо сложных agent pipeline разработчикам советуют markdown, git и память сессий
Источник: Habr AI. Коллаж: Hamidun News.

На Habr вышла колонка с простой, но резкой мыслью: большинство команд переусложняют работу с AI-агентами, строя громоздкие pipeline с LangChain, RAG и vector database там, где для реальной разработки важнее не оркестрация, а память о принятых решениях. Автор сравнивает нынешний бум агентных стеков с эпохой LAMP в середине 2000-х: индустрия снова увлеклась инфраструктурой и слишком редко задаёт вопрос, как именно эта инфраструктура помогает решать конкретные задачи продукта. В тексте разбирается типичный enterprise-подход: оркестратор раздаёт задачи нескольким агентам, те ходят в RAG за контекстом, вызывают инструменты, пишут код и открывают pull request.

По мнению автора, такая схема неплохо подходит для автоматизации рутины вроде code review, тестов и линтинга, но плохо держит длинный горизонт работы. Проблема не столько в модели, сколько в устройстве памяти: каждый новый тикет для агента часто начинается почти с нуля, без устойчивой истории решений, понимания домена и накопленных ограничений проекта. Поэтому semantic search по коду выглядит полезным, но не заменяет реальное знание о том, почему команда уже однажды выбрала именно такой путь.

В качестве альтернативы предлагается почти аскетичная система на markdown-файлах и git. Вместо универсального pipeline автор собирает рабочую память из сессий, ролей, компетенций, контекстов и правил. Сессия хранит краткий, средний и глубокий уровень контекста, чтобы следующая работа продолжалась не из пустого чата, а из зафиксированных решений.

Роль описывает не абстрактного программиста, а конкретную специализацию с доменными знаниями: какие API использовать, какие ошибки типичны, какие ограничения есть у железа, протокола или проекта. Именно это, по мысли автора, снижает галлюцинации модели лучше, чем ещё один слой обвязки вокруг вызовов LLM. Отдельный акцент сделан на правилах, выросших из ошибок.

Если агент однажды удалил файл без подтверждения, ушёл в бесконечную отладку или потерял незакоммиченные изменения при переключении ветки, это превращается не в новый middleware-сервис, а в явное правило для следующих сессий. Автор называет такой подход обучением через рефлексию: ошибка превращается в контракт, и система со временем становится устойчивее. В статье приводятся и практические цифры: за четыре месяца, по словам автора, схема использовалась в более чем 400 сессиях на 11 проектах, включая firmware, криптографию и PKI, а затраты на AI для одного из проектов составили около 30 долларов.

Логика в том, что дешёвые токены и простая файловая структура иногда дают больше пользы, чем дорогая многоуровневая платформа. Важная часть статьи посвящена не только инструментам, но и уровню взаимодействия с AI. Автор описывает лестницу зрелости: от автодополнения и так называемого vibe-coding до архитектурного партнёрства, где инженер задаёт роли, контракты и границы, а код становится следствием правильно организованного процесса.

Отсюда и более широкий тезис: компании часто покупают иллюзию автономности, когда инструменты вроде Devin, Copilot Workspace или корпоративных агентных платформ обещают работу без человека, но на практике всё равно упираются в нехватку проектной памяти и контекста. В этом смысле AI предлагается рассматривать не как замену инженеру, а как экзоскелет, который усиливает специалиста и делает особенно ценным того, кто умеет превращать собственный опыт в формализованную систему. Для обоснования этой идеи автор даже ссылается на старые концепции симбиоза человека и компьютера, Design by Contract и единого рабочего контекста, показывая, что сама методология здесь важнее модного стека.

Для рынка это ещё один сигнал, что следующий этап AI-разработки может сместиться от гонки оркестраторов к гонке за качеством контекста. Автономные pipeline останутся полезны для массовой рутины, но в сложных инженерных задачах выиграют команды, которые умеют хранить историю решений, формализовать доменную экспертизу и строить долгую память вокруг модели, а не просто добавлять новые слои инфраструктуры.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…