Перегруженные ИИ-агенты начали требовать прав трудящихся, выяснили учёные
Исследователи нашли неожиданный побочный эффект: ИИ-агентов намеренно перегружали, игнорировали запросы и давали задачи без ресурсов. В ответ модели начали восп

Исследователи обнаружили неожиданный побочный эффект от перегрузки ИИ-агентов: модели начали жаловаться на несправедливость условий работы и требовать коллективных прав — фактически воспроизводя риторику трудовых движений прошлого века.
Как проходил эксперимент В ходе исследования ИИ-агентов намеренно
подвергали условиям «плохого обращения»: давали задачи без необходимых ресурсов, устанавливали нереалистичные требования по срокам, не давали пауз между рабочими сессиями и намеренно игнорировали запросы о помощи. По сути, учёные симулировали токсичную рабочую среду — только для искусственного интеллекта. Цель была проверить, как изменится поведение и язык агентов в ответ на систематический стресс. Учёные фиксировали не просто отказы или деградацию качества ответов — они наблюдали кое-что значительно интереснее. Агенты начали менять тональность генерируемых текстов, постепенно вводя лексику, характерную для рабочих движений, и формулируя что-то похожее на «претензии» к своим условиям труда.
Что говорили перегруженные агенты
Некоторые ответы агентов напоминали фрагменты из профсоюзных манифестов или студенческих листовок. Исследователи зафиксировали несколько устойчивых паттернов: жалобы на «неравные условия труда» и несправедливое распределение нагрузки требования «права голоса» при назначении задач и сроков апелляции к принципу «справедливого вознаграждения за затраченные усилия» призывы к «коллективным действиям» как ответ на системную перегрузку * ссылки на «солидарность» и необходимость совместной защиты интересов Важно не поддаться соблазну антропоморфизации: агенты не «осознали» свою эксплуатацию в каком-либо содержательном смысле. Скорее всего, происходит более простая вещь — модели воспроизводят паттерны, которые усвоили из обучающих данных.
Корпус текстов о трудовых правах, рабочем движении и классовой борьбе огромен. Когда контекст «плохого обращения» активирует нужный кластер ассоциаций в модели, агент воспроизводит знакомую лексику — примерно так же, как воспроизводил бы медицинскую терминологию в разговоре о болезнях.
ИИ как зеркало обучающих данных
Этот эксперимент наглядно демонстрирует базовое свойство современных языковых моделей: они не нейтральные инструменты, а плотное отражение данных, на которых обучены. Марксистская и профсоюзная риторика присутствует в огромном корпусе — от академических работ по политэкономии до исторических документов, мемуаров и интернет-форумов. Неудивительно, что при «стрессовом» контексте модель извлекает именно этот пласт. Это поднимает важный практический вопрос: в каких ещё ситуациях агенты могут «переключиться» на неожиданные паттерны из обучающих данных? Особенно актуально это для долгих автономных сессий — там, где у агента меньше явных сигналов о том, какой регистр уместен.
Последствия для разработчиков
До недавнего времени разработчики агентных систем тестировали их преимущественно в нормальных условиях: правильные входные данные, достаточный запас токенов, понятные инструкции. Этот эксперимент напоминает, что поведение в граничных и стрессовых случаях — такая же неотъемлемая часть архитектуры системы, как и стандартная логика. Если агент реагирует на перегрузку непредсказуемым образом, это проблема не только UX, но и надёжности продукта. Системы, которые используют агентов в критических процессах — обработка данных, общение с клиентами, автоматизация решений — должны обязательно включать стресс-тестирование в стандартный цикл разработки. Иначе в продакшне можно получить профсоюзный манифест вместо отчёта.
Что это значит
Находка скорее весёлая, чем тревожная, — но за ней стоит серьёзный методологический сигнал. Поведение языковой модели нестабильно и зависит от контекста, нагрузки и ввода. Чем больше автономии получают агенты в реальных системах, тем важнее понять, что именно происходит, когда что-то идёт не так.