Habr AI→ оригинал

Claude Code et Codex changent les règles : les prompts cèdent la place à l'ingénierie du contexte

L'ingénierie des prompts dans les IDEs agentifs n'est plus le facteur de qualité principal. Une analyse détaillée de Context Engineering explique que dans Claud

Claude Code et Codex changent les règles : les prompts cèdent la place à l'ingénierie du contexte
Источник: Habr AI. Коллаж: Hamidun News.

На Habr AI вышел большой разбор о Context Engineering, и его главный тезис предельно практичный: в агентных инструментах вроде Claude Code, Codex и Cursor качество результата уже зависит не столько от формулировки запроса, сколько от всей среды вокруг модели. Сам пользовательский текст занимает крошечную долю контекста, а решающее влияние получают системный промпт, проектные инструкции, память между сессиями, инструменты, история диалога и результаты вызовов. Иными словами, эпоха «волшебного промпта» уходит, а на её место приходит проектирование контекста.

Ключевая мысль строится вокруг природы контекстного окна. Его предлагают воспринимать как рабочий стол модели: чем больше на нём случайных бумаг, тем хуже внимание распределяется по действительно важным сигналам. Длинный контекст не просто стоит дороже.

Он снижает качество из-за двух эффектов. Первый — context rot, когда внимание размазывается, модель начинает забывать ранние ограничения, зацикливаться на старых точках и отвечать более расплывчато. Второй — reasoning shift: по мере роста контекста часть вычислительного ресурса уходит на обработку входа, а не на рассуждение, поэтому ответ может звучать уверенно, но быть хуже обоснованным.

В статье приводится оценка, что длинный контекст способен без предупреждения урезать глубину рассуждений до 50 процентов. Почему так происходит, автор объясняет через архитектуру Transformer. Attention в базовом виде имеет квадратичную сложность O(n^2): каждый токен должен соотнестись с каждым.

Поэтому добавление документов, файлов и длинной переписки масштабирует стоимость не линейно, а квадратично. На практике это бьёт сразу по четырём параметрам: скорости ответа, стоимости, лимитам и точности. Отсюда и главный тезис: хороший context engineering — это не «запихнуть в модель всё», а отобрать минимальный набор высокосигнальных токенов, который максимизирует шанс нужного результата.

Дальше материал разбирает, из чего вообще собирается контекст в агентных системах. Помимо самих весов модели есть как минимум несколько управляемых слоёв: системный промпт, проектные файлы вроде CLAUDE.md или AGENTS.

md, память о пользователе и проекте, skills с готовыми процессами, MCP-интеграции, прицельно подгружаемые файлы и вся история tool_result. Отдельный акцент сделан на том, что модель не «помнит» разговор сама по себе: харнесс каждый раз пересобирает и отправляет ей историю заново. Из-за этого каждое лишнее описание инструмента, каждый ненужный MCP-сервер и каждый длинный системный файл начинают многократно съедать токены.

Для экономии нужны prompt cache, осознанный compact, новые сессии через clear и изоляция тяжёлого ресерча в subagents, чтобы основной агент получал не горы промежуточных данных, а короткую выжимку. Самая практическая часть касается стоимости агентного режима. Один запрос к агенту может оказаться не одним обращением к модели, а целой цепочкой из нескольких вызовов с tool use.

В примере с анализом упавшего деплоя одно пользовательское сообщение превращается в четыре модельных вызова и три исполнения инструментов. Без кеширования такой цикл быстро становится экономически бессмысленным; с prompt cache цена резко падает, но даже тогда важно помнить, что output-токены и скрытый thinking стоят дороже обычного input, а длинные tool definitions и системные инструкции попадают в каждый раунд. Отсюда и вывод автора: мастер отличается не тем, что пишет более хитрые промпты, а тем, что один раз собирает воспроизводимую среду — с правилами проекта, памятью, релевантными инструментами и процессами — и потом заставляет агент работать по этому контракту.

Для рынка AI-разработки это важный сдвиг. Конкуренция всё меньше идёт вокруг красивой формулировки запроса и всё больше — вокруг качества контекстной сборки, дисциплины токенов и инженерии агентной среды. Команды, которые научатся управлять памятью, инструментами и историей так же внимательно, как раньше управляли промптами, получат не только более точные ответы, но и предсказуемые затраты.

А значит, следующий этап эволюции AI-инструментов будет определяться не магией запроса, а архитектурой контекста.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…