Jiqizhixin (机器之心)→ оригинал

حدود التوسع: لماذا لا يضمن المزيد من وكلاء AI النتائج

عرض الباحثون تقريرًا يكشف مشكلة أساسية في توسيع نطاق وكلاء AI. وتبيّن أن مجرد زيادة عدد نماذج اللغة الكبيرة المتفاعلة داخل نظام واحد يؤدي إلى تراكم سريع للضجيج

حدود التوسع: لماذا لا يضمن المزيد من وكلاء AI النتائج
Источник: Jiqizhixin (机器之心). Коллаж: Hamidun News.
◐ Слушать статью

Индустрия искусственного интеллекта давно усвоила одну мантру: больше — значит лучше. Больше параметров, больше данных, больше вычислительной мощности. Логичным продолжением этой логики стала идея многоагентных систем — архитектур, в которых десятки или сотни языковых моделей работают сообща, передавая информацию друг другу и коллективно решая сложные задачи. Однако новое исследование бросает серьёзный вызов этому подходу, показывая, что бесконтрольное масштабирование агентных систем не просто перестаёт давать результат — оно активно вредит качеству принимаемых решений.

Многоагентные системы на основе больших языковых моделей вызывали искренний энтузиазм у разработчиков и инвесторов последние два года. Идея выглядела убедительно: если один агент способен рассуждать и решать задачи, то команда специализированных агентов должна справляться с куда более сложными проблемами — по аналогии с тем, как слаженная команда специалистов превосходит одиночного эксперта. Именно на этой интуиции строились амбициозные проекты автономных рабочих систем, агентных оркестраторов и многоуровневых пайплайнов. Теперь выясняется, что аналогия с человеческой командой работает не так прямолинейно, как казалось.

Суть открытой проблемы лежит в природе самой информации, которой обмениваются агенты. Когда языковая модель передаёт результаты своей работы другой модели, та включает полученные данные в собственный контекст и передаёт дальше — уже обогащённый вариант. При небольшом числе агентов этот процесс работает нормально. Но по мере роста системы происходит нечто неожиданное: одни и те же факты, формулировки и промежуточные выводы начинают циркулировать по сети снова и снова, накапливаясь в контексте каждого последующего агента. Исследователи описывают это явление как информационную избыточность — ситуацию, при которой сигнал тонет в лавине повторений самого себя. Алгоритм, получивший один и тот же факт в десяти разных формулировках, не становится в десять раз увереннее — напротив, он теряет способность чётко выделить действительно важное.

Проблема усугубляется тем, что современные языковые модели не имеют механизма дедупликации контекста на уровне семантики. Модель не "знает", что сведения о конкретном событии уже встречались ей трижды в разных фрагментах текста — она обрабатывает весь контекст равномерно, отдавая непропорционально большое внимание многократно повторяющимся элементам. В результате система начинает принимать решения, искажённые в пользу наиболее часто упомянутых данных, а не наиболее релевантных. Точность падает именно тогда, когда от системы ожидают максимальной отдачи — при решении сложных, многоэтапных задач, требующих тонкого анализа.

Для индустрии это открытие имеет вполне конкретные практические последствия. Оно означает, что текущий магистральный путь развития — добавление всё новых агентов в надежде получить линейный прирост производительности — ведёт в тупик. Компании, вложившие значительные ресурсы в построение масштабных многоагентных архитектур, оказываются перед необходимостью переосмыслить базовые принципы проектирования своих систем. Речь идёт не о косметических изменениях, а о смене самой парадигмы: от экстенсивного роста числа агентов к интенсивному повышению качества их взаимодействия.

Исследователи указывают на несколько направлений, которые могут вывести разработчиков из тупика. Первое — интеллектуальная фильтрация контекста: агенты должны не просто передавать весь накопленный объём информации, а активно отбирать только то, что действительно необходимо следующему звену в цепочке. Второе — разработка принципиально новых протоколов межагентного взаимодействия, которые встраивают дедупликацию и компрессию информации непосредственно в процесс коммуникации. Это потребует серьёзной инженерной работы и, вероятно, новых подходов к обучению самих моделей.

Ситуация напоминает историю с масштабированием нейронных сетей, когда исследователи долго верили, что простое увеличение глубины сети даёт пропорциональный прирост качества — пока не столкнулись с проблемой затухающих градиентов. Тогда решением стали остаточные связи и нормализация. Сегодня многоагентные системы стоят перед схожим вызовом, и его решение, скорее всего, окажется столь же неочевидным. Одно можно утверждать с уверенностью: будущее мощных AI-систем — не в бездумном умножении числа агентов, а в способности каждого из них работать с информацией точно, избирательно и без лишнего шума.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…