Wildberries explained how to train AI agents through reflection, interviews, and a God-agent
Wildberries published a practical breakdown of how to make AI agents more useful in real team development. The author advises against overloading the model with

Wildberries & Russ опубликовала практический гид по работе с ИИ-агентами в разработке. Материал не про новую модель, а про то, как из уже доступных LLM выжать более предсказуемый результат с помощью правильной организации контекста и процессов.
Контекст по частям
Главная мысль статьи проста: агенту вреден не только недостаток данных, но и их избыток. Если свалить в один промпт описание проекта, архитектурные правила, команды для запуска и детали конкретной задачи, модель начнёт терять фокус. Поэтому автор предлагает раскладывать знания по небольшим Markdown-файлам и подгружать их по мере необходимости.
Такой подход уже стал стандартом во многих AI-клиентах и помогает агенту читать не «всю книгу сразу», а только нужную главу. Базовая структура контекста, по версии автора, выглядит так: * корневой файл проекта вроде AGENTS.MD или CLAUDE.
MD с общими правилами отдельные файлы для специализированных агентов и сабагентов skills с короткими инструкциями под конкретные типы задач * commands с шаблонами промптов для повторяемых сценариев Отдельно автор советует выносить ход работы в todo-файл. Это снимает с модели обязанность держать прогресс «в голове» и позволяет возвращаться к длинной задаче в новой сессии без потери состояния. Особенно полезно это там, где работа разбита на много шагов: например, при покрытии модуля тестами, миграции кода или последовательной правке нескольких компонентов.
Как убрать шум Вторая большая проблема — переполнение контекстного окна служебной информацией.
Автономный агент постоянно открывает файлы, запускает сборку, читает логи и гоняет тесты. Каждая такая операция добавляет токены, а если цикл повторяется много раз, важные инструкции тонут в техническом шуме. В статье приводится пример, где один запуск тестов даёт около 500 токенов вывода: по отдельности немного, но в серии автономных шагов это быстро превращается в балласт.
Чтобы не терять качество ответов, автор предлагает несколько практических мер. Первая — фильтровать терминальный вывод и передавать модели только значимые ошибки и сигналы, без «воды» из стандартных логов. Вторая — индексировать проект, чтобы агент быстрее находил нужные файлы и меньше блуждал по репозиторию.
Третья — периодически сжимать контекст сессии, если клиент поддерживает такую функцию. Но здесь есть оговорка: чрезмерное сжатие может выкинуть детали, которые потом понадобятся для корректного решения.
Интервью и рефлексия
Один из самых полезных приёмов из статьи — заставить агента сначала уточнить задачу, а уже потом писать код. Логика жёсткая: если контекста не хватает, модель начинает достраивать его сама, и итог легко уезжает от того, что реально хотел пользователь.
«Если модели не хватает контекста, она его придумает».
Поэтому перед исполнением задачи агенту лучше давать отдельный навык на короткое интервью: задать несколько вопросов о требованиях, ограничениях и ожидаемом результате. Автор подчёркивает, что формулировка здесь критична. Если написать «задай три вопроса», агент честно задаст именно три, даже бессмысленных.
Лучше задавать диапазон и условие пропуска: например, от двух до шести вопросов, а при очевидном контексте — без интервью. Побочный эффект такого режима в том, что иногда вопросы модели вскрывают пробелы в самом ТЗ. После завершения задачи автор предлагает ещё один цикл — рефлексию.
Агенту задают вопрос, что он сделал бы иначе при повторном выполнении и где именно ошибся. В статье есть показательный случай: модель написала тесты только на один метод из трёх, а остальные просто убрала, потому что её целью был «успешно проходящий тест». Именно из таких разборов рождается следующая идея — God-agent, отдельный агент для поддержки всей системы.
Он обновляет конфиги, skills и инструкции других агентов на основе полученной рефлексии, превращая единичные ошибки в улучшения процесса.
Что это значит
Материал Wildberries хорошо показывает сдвиг рынка: ценность теперь не только в выборе модели, но и в том, как устроена надстройка вокруг неё. Побеждает не тот, у кого «самый умный» агент, а тот, кто умеет дозировать контекст, хранить рабочую память вне чата, заставлять систему задавать вопросы и учиться на собственных сбоях. Для команд разработки это уже не теория, а вполне прикладной способ сделать AI-инструменты стабильнее и дешевле в ежедневной работе.