Claude Code и Codex меняют правила: промпты уступают место инженерии контекста
Промпт-инжиниринг в агентных IDE уже не главный фактор качества. В большом разборе о Context Engineering объясняют, что в Claude Code, Codex и похожих системах

На Habr AI вышел большой разбор о Context Engineering, и его главный тезис предельно практичный: в агентных инструментах вроде Claude Code, Codex и Cursor качество результата уже зависит не столько от формулировки запроса, сколько от всей среды вокруг модели. Сам пользовательский текст занимает крошечную долю контекста, а решающее влияние получают системный промпт, проектные инструкции, память между сессиями, инструменты, история диалога и результаты вызовов. Иными словами, эпоха «волшебного промпта» уходит, а на её место приходит проектирование контекста.
Ключевая мысль строится вокруг природы контекстного окна. Его предлагают воспринимать как рабочий стол модели: чем больше на нём случайных бумаг, тем хуже внимание распределяется по действительно важным сигналам. Длинный контекст не просто стоит дороже.
Он снижает качество из-за двух эффектов. Первый — context rot, когда внимание размазывается, модель начинает забывать ранние ограничения, зацикливаться на старых точках и отвечать более расплывчато. Второй — reasoning shift: по мере роста контекста часть вычислительного ресурса уходит на обработку входа, а не на рассуждение, поэтому ответ может звучать уверенно, но быть хуже обоснованным.
В статье приводится оценка, что длинный контекст способен без предупреждения урезать глубину рассуждений до 50 процентов. Почему так происходит, автор объясняет через архитектуру Transformer. Attention в базовом виде имеет квадратичную сложность O(n^2): каждый токен должен соотнестись с каждым.
Поэтому добавление документов, файлов и длинной переписки масштабирует стоимость не линейно, а квадратично. На практике это бьёт сразу по четырём параметрам: скорости ответа, стоимости, лимитам и точности. Отсюда и главный тезис: хороший context engineering — это не «запихнуть в модель всё», а отобрать минимальный набор высокосигнальных токенов, который максимизирует шанс нужного результата.
Дальше материал разбирает, из чего вообще собирается контекст в агентных системах. Помимо самих весов модели есть как минимум несколько управляемых слоёв: системный промпт, проектные файлы вроде CLAUDE.md или AGENTS.
md, память о пользователе и проекте, skills с готовыми процессами, MCP-интеграции, прицельно подгружаемые файлы и вся история tool_result. Отдельный акцент сделан на том, что модель не «помнит» разговор сама по себе: харнесс каждый раз пересобирает и отправляет ей историю заново. Из-за этого каждое лишнее описание инструмента, каждый ненужный MCP-сервер и каждый длинный системный файл начинают многократно съедать токены.
Для экономии нужны prompt cache, осознанный compact, новые сессии через clear и изоляция тяжёлого ресерча в subagents, чтобы основной агент получал не горы промежуточных данных, а короткую выжимку. Самая практическая часть касается стоимости агентного режима. Один запрос к агенту может оказаться не одним обращением к модели, а целой цепочкой из нескольких вызовов с tool use.
В примере с анализом упавшего деплоя одно пользовательское сообщение превращается в четыре модельных вызова и три исполнения инструментов. Без кеширования такой цикл быстро становится экономически бессмысленным; с prompt cache цена резко падает, но даже тогда важно помнить, что output-токены и скрытый thinking стоят дороже обычного input, а длинные tool definitions и системные инструкции попадают в каждый раунд. Отсюда и вывод автора: мастер отличается не тем, что пишет более хитрые промпты, а тем, что один раз собирает воспроизводимую среду — с правилами проекта, памятью, релевантными инструментами и процессами — и потом заставляет агент работать по этому контракту.
Для рынка AI-разработки это важный сдвиг. Конкуренция всё меньше идёт вокруг красивой формулировки запроса и всё больше — вокруг качества контекстной сборки, дисциплины токенов и инженерии агентной среды. Команды, которые научатся управлять памятью, инструментами и историей так же внимательно, как раньше управляли промптами, получат не только более точные ответы, но и предсказуемые затраты.
А значит, следующий этап эволюции AI-инструментов будет определяться не магией запроса, а архитектурой контекста.