Habr AI→ оригинал

Claude Code y Codex cambian las reglas: los prompts ceden lugar a la ingeniería de contexto

La ingeniería de prompts en IDEs agentivos ya no es el factor principal de calidad. Un análisis detallado de Context Engineering explica que en Claude Code, Cod

Claude Code y Codex cambian las reglas: los prompts ceden lugar a la ingeniería de contexto
Источник: Habr AI. Коллаж: Hamidun News.

На Habr AI вышел большой разбор о Context Engineering, и его главный тезис предельно практичный: в агентных инструментах вроде Claude Code, Codex и Cursor качество результата уже зависит не столько от формулировки запроса, сколько от всей среды вокруг модели. Сам пользовательский текст занимает крошечную долю контекста, а решающее влияние получают системный промпт, проектные инструкции, память между сессиями, инструменты, история диалога и результаты вызовов. Иными словами, эпоха «волшебного промпта» уходит, а на её место приходит проектирование контекста.

Ключевая мысль строится вокруг природы контекстного окна. Его предлагают воспринимать как рабочий стол модели: чем больше на нём случайных бумаг, тем хуже внимание распределяется по действительно важным сигналам. Длинный контекст не просто стоит дороже.

Он снижает качество из-за двух эффектов. Первый — context rot, когда внимание размазывается, модель начинает забывать ранние ограничения, зацикливаться на старых точках и отвечать более расплывчато. Второй — reasoning shift: по мере роста контекста часть вычислительного ресурса уходит на обработку входа, а не на рассуждение, поэтому ответ может звучать уверенно, но быть хуже обоснованным.

В статье приводится оценка, что длинный контекст способен без предупреждения урезать глубину рассуждений до 50 процентов. Почему так происходит, автор объясняет через архитектуру Transformer. Attention в базовом виде имеет квадратичную сложность O(n^2): каждый токен должен соотнестись с каждым.

Поэтому добавление документов, файлов и длинной переписки масштабирует стоимость не линейно, а квадратично. На практике это бьёт сразу по четырём параметрам: скорости ответа, стоимости, лимитам и точности. Отсюда и главный тезис: хороший context engineering — это не «запихнуть в модель всё», а отобрать минимальный набор высокосигнальных токенов, который максимизирует шанс нужного результата.

Дальше материал разбирает, из чего вообще собирается контекст в агентных системах. Помимо самих весов модели есть как минимум несколько управляемых слоёв: системный промпт, проектные файлы вроде CLAUDE.md или AGENTS.

md, память о пользователе и проекте, skills с готовыми процессами, MCP-интеграции, прицельно подгружаемые файлы и вся история tool_result. Отдельный акцент сделан на том, что модель не «помнит» разговор сама по себе: харнесс каждый раз пересобирает и отправляет ей историю заново. Из-за этого каждое лишнее описание инструмента, каждый ненужный MCP-сервер и каждый длинный системный файл начинают многократно съедать токены.

Для экономии нужны prompt cache, осознанный compact, новые сессии через clear и изоляция тяжёлого ресерча в subagents, чтобы основной агент получал не горы промежуточных данных, а короткую выжимку. Самая практическая часть касается стоимости агентного режима. Один запрос к агенту может оказаться не одним обращением к модели, а целой цепочкой из нескольких вызовов с tool use.

В примере с анализом упавшего деплоя одно пользовательское сообщение превращается в четыре модельных вызова и три исполнения инструментов. Без кеширования такой цикл быстро становится экономически бессмысленным; с prompt cache цена резко падает, но даже тогда важно помнить, что output-токены и скрытый thinking стоят дороже обычного input, а длинные tool definitions и системные инструкции попадают в каждый раунд. Отсюда и вывод автора: мастер отличается не тем, что пишет более хитрые промпты, а тем, что один раз собирает воспроизводимую среду — с правилами проекта, памятью, релевантными инструментами и процессами — и потом заставляет агент работать по этому контракту.

Для рынка AI-разработки это важный сдвиг. Конкуренция всё меньше идёт вокруг красивой формулировки запроса и всё больше — вокруг качества контекстной сборки, дисциплины токенов и инженерии агентной среды. Команды, которые научатся управлять памятью, инструментами и историей так же внимательно, как раньше управляли промптами, получат не только более точные ответы, но и предсказуемые затраты.

А значит, следующий этап эволюции AI-инструментов будет определяться не магией запроса, а архитектурой контекста.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…