Wildberries explicó cómo entrenar agentes de AI mediante reflexión, entrevistas y un God-agent
En el blog de Wildberries se publicó un análisis práctico sobre cómo hacer que los agentes de AI sean más útiles en el desarrollo real dentro del equipo. El aut

Wildberries & Russ опубликовала практический гид по работе с ИИ-агентами в разработке. Материал не про новую модель, а про то, как из уже доступных LLM выжать более предсказуемый результат с помощью правильной организации контекста и процессов.
Контекст по частям
Главная мысль статьи проста: агенту вреден не только недостаток данных, но и их избыток. Если свалить в один промпт описание проекта, архитектурные правила, команды для запуска и детали конкретной задачи, модель начнёт терять фокус. Поэтому автор предлагает раскладывать знания по небольшим Markdown-файлам и подгружать их по мере необходимости.
Такой подход уже стал стандартом во многих AI-клиентах и помогает агенту читать не «всю книгу сразу», а только нужную главу. Базовая структура контекста, по версии автора, выглядит так: * корневой файл проекта вроде AGENTS.MD или CLAUDE.
MD с общими правилами отдельные файлы для специализированных агентов и сабагентов skills с короткими инструкциями под конкретные типы задач * commands с шаблонами промптов для повторяемых сценариев Отдельно автор советует выносить ход работы в todo-файл. Это снимает с модели обязанность держать прогресс «в голове» и позволяет возвращаться к длинной задаче в новой сессии без потери состояния. Особенно полезно это там, где работа разбита на много шагов: например, при покрытии модуля тестами, миграции кода или последовательной правке нескольких компонентов.
Как убрать шум Вторая большая проблема — переполнение контекстного окна служебной информацией.
Автономный агент постоянно открывает файлы, запускает сборку, читает логи и гоняет тесты. Каждая такая операция добавляет токены, а если цикл повторяется много раз, важные инструкции тонут в техническом шуме. В статье приводится пример, где один запуск тестов даёт около 500 токенов вывода: по отдельности немного, но в серии автономных шагов это быстро превращается в балласт.
Чтобы не терять качество ответов, автор предлагает несколько практических мер. Первая — фильтровать терминальный вывод и передавать модели только значимые ошибки и сигналы, без «воды» из стандартных логов. Вторая — индексировать проект, чтобы агент быстрее находил нужные файлы и меньше блуждал по репозиторию.
Третья — периодически сжимать контекст сессии, если клиент поддерживает такую функцию. Но здесь есть оговорка: чрезмерное сжатие может выкинуть детали, которые потом понадобятся для корректного решения.
Интервью и рефлексия
Один из самых полезных приёмов из статьи — заставить агента сначала уточнить задачу, а уже потом писать код. Логика жёсткая: если контекста не хватает, модель начинает достраивать его сама, и итог легко уезжает от того, что реально хотел пользователь.
«Если модели не хватает контекста, она его придумает».
Поэтому перед исполнением задачи агенту лучше давать отдельный навык на короткое интервью: задать несколько вопросов о требованиях, ограничениях и ожидаемом результате. Автор подчёркивает, что формулировка здесь критична. Если написать «задай три вопроса», агент честно задаст именно три, даже бессмысленных.
Лучше задавать диапазон и условие пропуска: например, от двух до шести вопросов, а при очевидном контексте — без интервью. Побочный эффект такого режима в том, что иногда вопросы модели вскрывают пробелы в самом ТЗ. После завершения задачи автор предлагает ещё один цикл — рефлексию.
Агенту задают вопрос, что он сделал бы иначе при повторном выполнении и где именно ошибся. В статье есть показательный случай: модель написала тесты только на один метод из трёх, а остальные просто убрала, потому что её целью был «успешно проходящий тест». Именно из таких разборов рождается следующая идея — God-agent, отдельный агент для поддержки всей системы.
Он обновляет конфиги, skills и инструкции других агентов на основе полученной рефлексии, превращая единичные ошибки в улучшения процесса.
Что это значит
Материал Wildberries хорошо показывает сдвиг рынка: ценность теперь не только в выборе модели, но и в том, как устроена надстройка вокруг неё. Побеждает не тот, у кого «самый умный» агент, а тот, кто умеет дозировать контекст, хранить рабочую память вне чата, заставлять систему задавать вопросы и учиться на собственных сбоях. Для команд разработки это уже не теория, а вполне прикладной способ сделать AI-инструменты стабильнее и дешевле в ежедневной работе.