Habr AI→ оригинал

Anthropic وOpenAI وCursor: ثمانية مستويات لنضج هندسة الوكلاء

نشرت Habr AI ترجمةً لمقال عن المستويات الثمانية لهندسة الوكلاء، من الإكمال التلقائي للكود إلى فرق من الوكلاء الذاتيين. الفكرة الرئيسية بسيطة: النماذج القوية وحد

Anthropic وOpenAI وCursor: ثمانية مستويات لنضج هندسة الوكلاء
Источник: Habr AI. Коллаж: Hamidun News.

Habr AI выпустил перевод статьи о восьми уровнях агентной инженерии — практики, которая превращает LLM из помощника по автодополнению в почти автономную команду разработчиков. Главная мысль текста: скачок в качестве моделей сам по себе не гарантирует рост продуктивности, если у команды не выстроены контекст, правила, инструменты и обратная связь.

От подсказок к агентам Первые два уровня автор называет уже привычными: tab complete и agent IDE.

На этом этапе AI ускоряет локальные задачи — дописывает фрагменты кода, помогает с правками в нескольких файлах, строит план из идеи. Но настоящий перелом начинается на третьем уровне, где в центр выходит context engineering. Речь уже не о красивом промпте, а о дисциплине: какие файлы, правила и описания инструментов получает модель, что лежит в истории сессии и сколько лишнего шума съедает контекстное окно. Чем меньше мусора, тем стабильнее результат.

«Каждый токен должен заслужить своё место в промпте».

Четвёртый уровень — compounding engineering: команда не просто пользуется моделью, а превращает удачные находки в систему. Если агент ошибся, выводы фиксируются в rules-файлах, документации и рабочих паттернах, чтобы следующая сессия не повторяла те же промахи. Пятый уровень добавляет к этому инструменты действия: MCP, skills, доступ к API, базе данных, CI и браузеру. С этого момента LLM перестаёт быть только собеседником о коде и начинает реально менять кодовую базу, тестировать её и участвовать в ревью.

Где растёт отдача

Шестой уровень автор считает точкой, где AI-кодинг становится по-настоящему производственным. Здесь важен уже не только контекст, но и целая среда вокруг агента: тесты, линтеры, типизация, логи, браузерные проверки и другие feedback loops. Именно они позволяют модели не просто сгенерировать патч, а заметить ошибку, проверить себя и сделать ещё одну итерацию без участия человека.

В статье это называется harness engineering — проектирование такого рантайма, где агент может видеть последствия собственных изменений и упираться в ограничения, а не в расплывчатые инструкции. rules-файлы и документация, которые задают контекст CLI или MCP-инструменты для доступа к данным, тестам и интерфейсу автоматический backpressure: типы, линтеры, хуки, CI разделение ролей между исполнителем и ревьюером, чтобы агент не проверял сам себя Из этого вырастает седьмой уровень — background agents. Если модель умеет сама строить план, ориентироваться в репозитории и валидировать результат, её уже не нужно держать в интерактивной вкладке.

Агент может работать асинхронно: исследовать кодовую базу, писать фичу, прогонять проверки, открывать PR и возвращаться только с вопросами или итогом. Для команды это меняет сам способ работы: разработчик меньше вручную жонглирует задачами и всё больше выступает оркестратором, который задаёт намерение, ограничения и приоритеты.

Куда движется рынок

Дальше начинается то, что пока выглядит скорее передним краем, чем повседневной практикой. Восьмой уровень — автономные агентные команды, где несколько LLM координируются друг с другом напрямую, а не через одного центрального оператора. В тексте приводятся примеры Anthropic и Cursor: параллельные агенты уже использовали для написания C-компилятора, сборки браузера и крупных миграций в кодовой базе.

Но вместе с масштабом сразу всплывают старые проблемы разработки: регрессии, конфликты, зависания, избыточная осторожность и растущая стоимость вычислений. Поэтому автор статьи предлагает трезвый вывод: большинству команд сейчас важнее не мечтать о полностью самостоятельных AI-отделах, а дойти хотя бы до зрелого седьмого уровня. То есть построить чистый контекст, накопление правил, качественные skills, надёжные циклы проверки и фоновую оркестрацию.

Именно здесь, по его мнению, находится ближайший практический выигрыш. И именно тут разница между сильной и слабой AI-командой становится особенно заметной: одни ускоряют релизы, другие тонут в хаосе, который сами же и автоматизировали.

Что это значит

Статья Habr AI полезна тем, что переводит разговор об «умных моделях» в разговор об инженерной зрелости. Рынок AI-кодинга движется не к волшебной кнопке, а к системам, где модели получают правильный контекст, рабочие инструменты и жёсткие контуры проверки. Выиграют не те, у кого просто новее модель, а те, кто быстрее построит вокруг неё рабочий конвейер.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…