Jiqizhixin (机器之心)→ оригинал

DeepMind: чем больше агентов, тем хуже результат?

DeepMind опубликовал исследование, ставящее под сомнение популярную идею о том, что увеличение числа ИИ-агентов в системе улучшает итоговый результат. По данным

DeepMind: чем больше агентов, тем хуже результат?
Источник: Jiqizhixin (机器之心). Коллаж: Hamidun News.

Индустрия искусственного интеллекта долго жила по простой логике: больше — значит лучше. Больше параметров, больше данных, больше вычислений. Теперь же DeepMind бросает вызов следующему витку этой идеи — вере в то, что увеличение числа ИИ-агентов внутри системы автоматически ведёт к росту её возможностей. Новое исследование компании предполагает, что у мультиагентных архитектур существует структурный потолок, и приближение к нему может дорого обойтись тем, кто сделал ставку на агентное масштабирование как главный путь вперёд.

Идея мультиагентных систем сама по себе не нова. На протяжении последних двух лет ведущие лаборатории — OpenAI, Anthropic, Google — активно продвигали концепцию, при которой несколько специализированных ИИ-агентов работают совместно, распределяя задачи и перепроверяя результаты друг друга. Предполагалось, что такая архитектура имитирует коллективный разум: один агент пишет код, другой его тестирует, третий ищет ошибки, а общий координатор следит за процессом. Логика казалась безупречной — пока DeepMind не стал измерять, что происходит на практике.

Исследование зафиксировало контринтуитивный эффект: начиная с определённого порога, добавление новых агентов не улучшает результат, а ухудшает его. Причина кроется в координационных издержках. Каждый новый агент в системе — это не просто дополнительная вычислительная мощность, но и новый источник потенциальных противоречий. Агенты должны согласовывать промежуточные результаты, передавать контекст, разрешать конфликты интерпретаций. При малом числе участников эти накладные расходы незначительны. При росте их количества они начинают пожирать тот самый выигрыш, ради которого система и создавалась. В какой-то момент система перестаёт быть оркестром и превращается в толпу.

Технически проблема усугубляется тем, что современные языковые модели не обладают надёжным механизмом разрешения противоречий между агентами. Когда два агента приходят к разным выводам — а это происходит тем чаще, чем сложнее задача, — системе требуется либо арбитр, либо протокол голосования, либо откат к одному из вариантов. Каждый из этих способов вносит собственные искажения. Арбитр сам может ошибаться. Голосование большинства убивает нестандартные, но верные решения. Откат означает, что часть работы была проделана впустую. Всё это — не баги конкретных реализаций, а фундаментальные свойства распределённых систем, с которыми инженеры борются десятилетиями даже в классическом программном обеспечении.

Для индустрии это открытие имеет серьёзные практические последствия. Стартапы и крупные компании вложили значительные ресурсы в построение так называемых агентных фреймворков — AutoGen от Microsoft, CrewAI, LangGraph и множество других инструментов, ориентированных именно на оркестрацию большого числа агентов. Тезис о том, что агентное масштабирование компенсирует ограничения отдельных моделей, стал чуть ли не догмой в технологических питч-деках. Если DeepMind прав, часть этих архитектурных решений придётся пересматривать не через годы, а уже сейчас.

Вместе с тем важно не переоценивать пессимизм исследования. «Потолок агентов» — не приговор мультиагентному подходу как таковому, а скорее указание на то, что масштабирование должно быть умным, а не механическим. Системы с небольшим числом хорошо специализированных агентов, чётко разделёнными зонами ответственности и минимальным пересечением задач продолжают демонстрировать реальный прирост производительности. Проблема возникает тогда, когда разработчики добавляют агентов по принципу «больше — лучше», не задумываясь о том, как устроена координация между ними.

Открытие DeepMind встраивается в более широкую дискуссию об ограничениях масштабирования в ИИ, которая заметно оживилась в последние месяцы. После нескольких лет, когда увеличение вычислительных мощностей почти автоматически давало прирост качества, индустрия всё чаще сталкивается с убывающей отдачей — будь то предобучение больших моделей или, теперь, агентные архитектуры. Это не означает, что прогресс остановился. Это означает, что простые рецепты перестают работать и на смену количественному росту должны прийти качественные архитектурные решения. Для лабораторий, конкурирующих за лидерство в эпоху агентного ИИ, результаты DeepMind — это не повод для паники, но повод серьёзно пересмотреть, как именно они собираются строить системы следующего поколения.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…