Google AI Ultra : comment transformer un abonnement en pool d'agents parallèles et en consensus entre modèles
Google AI Ultra peut être utilisé non seulement comme accès à Gemini, mais aussi comme base pour le développement multi-agents. Dans un schéma avec un pool de w

Google AI Ultra можно рассматривать не как дорогую подписку на Gemini, а как основу для собственной мультиагентной среды. Идея в том, чтобы распределять рутинные задачи между фоновыми воркерами, а главного агента использовать как оркестратор и ревьюер решений.
Подписка как инфраструктура
Главный тезис разбора простой: цена Ultra выглядит высокой, но ее можно окупать не количеством чатов, а архитектурой работы. Вместо того чтобы загонять одну модель в бесконечный рефакторинг, предлагается связка Antigravity IDE, Claude в роли основного агента и Gemini CLI в роли почти безлимитного пула исполнителей. Если дневной лимит одной модели закончился, сценарий не рушится: оркестратор переключается на другую модель, а фоновые задачи продолжают выполняться отдельно.
Такой подход решает сразу две проблемы. Первая — стоимость токенов в классических API-сценариях, когда каждый вспомогательный агент съедает бюджет. Вторая — узкое место одной IDE-сессии: даже если среда умеет вызывать субагентов, этим сложно управлять, задавать роли и выстраивать повторяемые процессы.
Здесь это подается как переход от одного умного окна к полноценной команде агентов, где часть занимается исследованием, часть — кодом, часть — проверкой предложенного решения.
Как устроен пул Для этого предлагается собственный MCP-сервер Agent-Pool-MCP.
Он работает по pull-модели: основная сессия не ждет, пока фоновый исполнитель закончит задачу, а просто получает task_id и двигается дальше. Перед сложным изменением можно сначала отправить исследование в readonly-режиме, потом отдельно спросить вторую модель через consult_peer, и только после этого запускать рефакторинг. То есть вместо линейного сценария подумал, сделал, проверил получается конвейер, где разные этапы идут параллельно и не блокируют друг друга.
основной IDE-агент ставит задачи и собирает результаты фоновые воркеры на Gemini CLI выполняют анализ, код и проверки consult_peer дает второе мнение от другой модели до изменения кода общая директория `.agent/delegation/` разводит артефакты между агентами * skills и workflows задают роли, чеклисты и типовые пайплайны Ключевое правило здесь предельно жесткое: агенты не должны править одни и те же файлы одновременно. Один пишет выводы в отдельный markdown-файл, другой читает их и формирует архитектурный proposal, третий делает аудит шаблонов.
Это снимает большую часть коллизий и превращает агентную систему в что-то похожее на команду разработки с отдельными дорожками ответственности. Принцип формулируется предельно прямо: > Никто не трогает файлы друг друга.
Консенсус и контроль Самая интересная часть — кросс-модельный консенсус.
Поскольку пул воркеров построен на Gemini CLI, в роль основного IDE-агента выносится другая модель, чтобы получать не самосогласование, а реальную проверку идеи снаружи. В примере Claude предлагает архитектурное решение, а Gemini ищет слепые зоны и возвращает вердикт вроде AGREE или SUGGEST_CHANGES до того, как кто-то меняет кодовую базу. Плюс поверх этого строится фрактальная оркестрация, когда оркестратор может порождать новые команды и вложенные подкоманды почти как тимлиды и разработчики в обычной инженерной структуре.
Отдельно разбирается поведение агентов в ожидании. Без дополнительной настройки они либо бессмысленно опрашивают статус фоновой задачи, либо бросаются делать ее сами и дублируют работу. Для этого в систему добавляется подсказка on_wait_hint: она говорит модели, когда стоит переключиться на другую полезную задачу, а когда, наоборот, просто дождаться результата.
Финальный акцент — безопасность: любой MCP-сервер нужно считать потенциальной точкой промпт-инъекции, фиксировать версии, ограничивать доступ к файловой системе и не передавать секреты в промптах.
Что это значит
Этот разбор хорошо показывает новый сдвиг на рынке AI-инструментов: ценность подписки теперь измеряется не только качеством модели, но и тем, насколько легко из нее собрать рабочую агентную инфраструктуру. Если подход приживется, дорогие AI-планы будут продавать не больше ответов, а полноценную среду для параллельной разработки, ресерча и внутреннего AI-ревью.