Google AI Ultra: كيف تحوّل الاشتراك إلى مجموعة من الوكلاء المتوازيين وتوافق بين النماذج
يمكن استخدام Google AI Ultra ليس فقط كوسيلة للوصول إلى Gemini، بل أيضا كأساس للتطوير متعدد الوكلاء. في مخطط يعتمد على مجموعة من وحدات العمل الخلفية على Gemini C

Google AI Ultra можно рассматривать не как дорогую подписку на Gemini, а как основу для собственной мультиагентной среды. Идея в том, чтобы распределять рутинные задачи между фоновыми воркерами, а главного агента использовать как оркестратор и ревьюер решений.
Подписка как инфраструктура
Главный тезис разбора простой: цена Ultra выглядит высокой, но ее можно окупать не количеством чатов, а архитектурой работы. Вместо того чтобы загонять одну модель в бесконечный рефакторинг, предлагается связка Antigravity IDE, Claude в роли основного агента и Gemini CLI в роли почти безлимитного пула исполнителей. Если дневной лимит одной модели закончился, сценарий не рушится: оркестратор переключается на другую модель, а фоновые задачи продолжают выполняться отдельно.
Такой подход решает сразу две проблемы. Первая — стоимость токенов в классических API-сценариях, когда каждый вспомогательный агент съедает бюджет. Вторая — узкое место одной IDE-сессии: даже если среда умеет вызывать субагентов, этим сложно управлять, задавать роли и выстраивать повторяемые процессы.
Здесь это подается как переход от одного умного окна к полноценной команде агентов, где часть занимается исследованием, часть — кодом, часть — проверкой предложенного решения.
Как устроен пул Для этого предлагается собственный MCP-сервер Agent-Pool-MCP.
Он работает по pull-модели: основная сессия не ждет, пока фоновый исполнитель закончит задачу, а просто получает task_id и двигается дальше. Перед сложным изменением можно сначала отправить исследование в readonly-режиме, потом отдельно спросить вторую модель через consult_peer, и только после этого запускать рефакторинг. То есть вместо линейного сценария подумал, сделал, проверил получается конвейер, где разные этапы идут параллельно и не блокируют друг друга.
основной IDE-агент ставит задачи и собирает результаты фоновые воркеры на Gemini CLI выполняют анализ, код и проверки consult_peer дает второе мнение от другой модели до изменения кода общая директория `.agent/delegation/` разводит артефакты между агентами * skills и workflows задают роли, чеклисты и типовые пайплайны Ключевое правило здесь предельно жесткое: агенты не должны править одни и те же файлы одновременно. Один пишет выводы в отдельный markdown-файл, другой читает их и формирует архитектурный proposal, третий делает аудит шаблонов.
Это снимает большую часть коллизий и превращает агентную систему в что-то похожее на команду разработки с отдельными дорожками ответственности. Принцип формулируется предельно прямо: > Никто не трогает файлы друг друга.
Консенсус и контроль Самая интересная часть — кросс-модельный консенсус.
Поскольку пул воркеров построен на Gemini CLI, в роль основного IDE-агента выносится другая модель, чтобы получать не самосогласование, а реальную проверку идеи снаружи. В примере Claude предлагает архитектурное решение, а Gemini ищет слепые зоны и возвращает вердикт вроде AGREE или SUGGEST_CHANGES до того, как кто-то меняет кодовую базу. Плюс поверх этого строится фрактальная оркестрация, когда оркестратор может порождать новые команды и вложенные подкоманды почти как тимлиды и разработчики в обычной инженерной структуре.
Отдельно разбирается поведение агентов в ожидании. Без дополнительной настройки они либо бессмысленно опрашивают статус фоновой задачи, либо бросаются делать ее сами и дублируют работу. Для этого в систему добавляется подсказка on_wait_hint: она говорит модели, когда стоит переключиться на другую полезную задачу, а когда, наоборот, просто дождаться результата.
Финальный акцент — безопасность: любой MCP-сервер нужно считать потенциальной точкой промпт-инъекции, фиксировать версии, ограничивать доступ к файловой системе и не передавать секреты в промптах.
Что это значит
Этот разбор хорошо показывает новый сдвиг на рынке AI-инструментов: ценность подписки теперь измеряется не только качеством модели, но и тем, насколько легко из нее собрать рабочую агентную инфраструктуру. Если подход приживется, дорогие AI-планы будут продавать не больше ответов, а полноценную среду для параллельной разработки, ресерча и внутреннего AI-ревью.