Habr AI→ оригинал

Google AI Ultra: como transformar uma assinatura em um pool de agentes paralelos e consenso entre modelos

O Google AI Ultra pode ser usado não apenas como acesso ao Gemini, mas também como base para desenvolvimento multiagente. Em um esquema com um pool de workers e

Google AI Ultra: como transformar uma assinatura em um pool de agentes paralelos e consenso entre modelos
Источник: Habr AI. Коллаж: Hamidun News.

Google AI Ultra можно рассматривать не как дорогую подписку на Gemini, а как основу для собственной мультиагентной среды. Идея в том, чтобы распределять рутинные задачи между фоновыми воркерами, а главного агента использовать как оркестратор и ревьюер решений.

Подписка как инфраструктура

Главный тезис разбора простой: цена Ultra выглядит высокой, но ее можно окупать не количеством чатов, а архитектурой работы. Вместо того чтобы загонять одну модель в бесконечный рефакторинг, предлагается связка Antigravity IDE, Claude в роли основного агента и Gemini CLI в роли почти безлимитного пула исполнителей. Если дневной лимит одной модели закончился, сценарий не рушится: оркестратор переключается на другую модель, а фоновые задачи продолжают выполняться отдельно.

Такой подход решает сразу две проблемы. Первая — стоимость токенов в классических API-сценариях, когда каждый вспомогательный агент съедает бюджет. Вторая — узкое место одной IDE-сессии: даже если среда умеет вызывать субагентов, этим сложно управлять, задавать роли и выстраивать повторяемые процессы.

Здесь это подается как переход от одного умного окна к полноценной команде агентов, где часть занимается исследованием, часть — кодом, часть — проверкой предложенного решения.

Как устроен пул Для этого предлагается собственный MCP-сервер Agent-Pool-MCP.

Он работает по pull-модели: основная сессия не ждет, пока фоновый исполнитель закончит задачу, а просто получает task_id и двигается дальше. Перед сложным изменением можно сначала отправить исследование в readonly-режиме, потом отдельно спросить вторую модель через consult_peer, и только после этого запускать рефакторинг. То есть вместо линейного сценария подумал, сделал, проверил получается конвейер, где разные этапы идут параллельно и не блокируют друг друга.

основной IDE-агент ставит задачи и собирает результаты фоновые воркеры на Gemini CLI выполняют анализ, код и проверки consult_peer дает второе мнение от другой модели до изменения кода общая директория `.agent/delegation/` разводит артефакты между агентами * skills и workflows задают роли, чеклисты и типовые пайплайны Ключевое правило здесь предельно жесткое: агенты не должны править одни и те же файлы одновременно. Один пишет выводы в отдельный markdown-файл, другой читает их и формирует архитектурный proposal, третий делает аудит шаблонов.

Это снимает большую часть коллизий и превращает агентную систему в что-то похожее на команду разработки с отдельными дорожками ответственности. Принцип формулируется предельно прямо: > Никто не трогает файлы друг друга.

Консенсус и контроль Самая интересная часть — кросс-модельный консенсус.

Поскольку пул воркеров построен на Gemini CLI, в роль основного IDE-агента выносится другая модель, чтобы получать не самосогласование, а реальную проверку идеи снаружи. В примере Claude предлагает архитектурное решение, а Gemini ищет слепые зоны и возвращает вердикт вроде AGREE или SUGGEST_CHANGES до того, как кто-то меняет кодовую базу. Плюс поверх этого строится фрактальная оркестрация, когда оркестратор может порождать новые команды и вложенные подкоманды почти как тимлиды и разработчики в обычной инженерной структуре.

Отдельно разбирается поведение агентов в ожидании. Без дополнительной настройки они либо бессмысленно опрашивают статус фоновой задачи, либо бросаются делать ее сами и дублируют работу. Для этого в систему добавляется подсказка on_wait_hint: она говорит модели, когда стоит переключиться на другую полезную задачу, а когда, наоборот, просто дождаться результата.

Финальный акцент — безопасность: любой MCP-сервер нужно считать потенциальной точкой промпт-инъекции, фиксировать версии, ограничивать доступ к файловой системе и не передавать секреты в промптах.

Что это значит

Этот разбор хорошо показывает новый сдвиг на рынке AI-инструментов: ценность подписки теперь измеряется не только качеством модели, но и тем, насколько легко из нее собрать рабочую агентную инфраструктуру. Если подход приживется, дорогие AI-планы будут продавать не больше ответов, а полноценную среду для параллельной разработки, ресерча и внутреннего AI-ревью.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…