MIT Technology Review→ оригинал

Intel alerta: a AI agêntica saiu da fase de "infância" e exige um novo modelo de controle

A Intel afirma que a AI agêntica entrou em uma fase de rápida maturação: ferramentas no-code e agentes pessoais já correm dentro das empresas mais rápido do que

Intel alerta: a AI agêntica saiu da fase de "infância" e exige um novo modelo de controle
Источник: MIT Technology Review. Коллаж: Hamidun News.

Intel предлагает смотреть на агентный ИИ как на ребёнка, который внезапно перестал ползать и начал бегать. Компании ещё спорят о политиках и комитетах, а автономные агенты уже получают доступ к рабочим процессам, бюджетам и критичным системам — значит, старые подходы к контролю больше не работают.

От чат-ботов к агентам В материале для MIT

Technology Review авторы сравнивают нынешний этап agentic AI с «детским возрастом». Переход случился быстро: в конце 2025-го и начале 2026-го на рынок вышла волна no-code-инструментов, а вместе с ней — OpenClaw, open-source персональный агент с GitHub. Если раньше ИИ в основном ждал запроса в интерфейсе чат-бота, то теперь он сам проходит по цепочке действий: читает данные, принимает промежуточные решения и двигает процесс дальше без постоянного подтверждения человека.

Именно здесь, по мнению Intel, ломается прежняя модель governance. Раньше бизнес концентрировался на рисках ответа модели: галлюцинациях, дрейфе, утечке данных, отравлении данных. Но когда агент начинает выполнять workflow на машинной скорости, смысл human in the loop резко уменьшается.

Для компании это уже не вопрос «что сказал бот», а вопрос «что бот успел сделать» — например, какие записи изменил, какие разрешения использовал и какие действия запустил дальше по цепочке.

Где ломается контроль

Главная мысль материала — управлять агентами через документы и комитеты уже поздно. Ограничения должны быть встроены прямо в код и бизнес-процессы с учётом уровня риска, прав доступа и возможной ответственности. Иначе агент с вероятностной логикой получает слишком много свободы в системах, где ошибка дорого обходится. Это меняет и архитектуру, и зону ответственности: если агент ошибается, отвечать всё равно будет не модель, а компания, которая дала ей доступ к прод-среде.

«ИИ делает работу, а люди несут риск». * агент может собрать цепочку

действий через несколько корпоративных систем и получить больше влияния, чем один сотрудник; в компании быстро накапливаются сервисные аккаунты, долгоживущие API-токены и права на изменение ключевых файлов и данных; появляется новый слой shadow AI, когда сотрудники создают собственных помощников без архитектуры, поддержки и нормального аудита; при переводе сотрудника в другой отдел или после увольнения остаются «осиротевшие» агенты, связанные с его ID и разрешениями; neglected AI pilots и «зомби-проекты» продолжают крутиться в облаке и сжигать ресурсы без понятного владельца. Авторы отдельно проводят аналогию с малышом, которому внезапно дали слишком мощную игрушку. Для корпоративной среды смысл прост: нельзя выпускать автономного агента в прод без наблюдаемости, возможности быстро отозвать доступ и механизма принудительной остановки.

Нужны discovery, audit trail, remediation и понятная процедура деактивации, иначе выгода от автоматизации исчезает в момент первого же инцидента, а разбор последствий оказывается дороже самой пользы от внедрения.

Цена автономии

Intel также спорит с популярной идеей, что агентный ИИ — это просто способ урезать фонд оплаты труда. В enterprise-модели расходы ведут себя иначе: это не фиксированная лицензия на пользователя, а потребление токенов, вычислений и внешних API по мере роста workflow. Экономия на людях оказывается слишком грубой метрикой, потому что вместе с автоматизацией растут затраты на наблюдаемость, поддержку, безопасность и финансовый контроль всей агентной инфраструктуры.

В материале приводится декабрьский опрос IDC, заказанный DataRobot: 96% компаний, внедряющих generative AI, и 92% организаций, внедряющих agentic AI, сообщили, что затраты оказались выше или намного выше ожиданий. Это важный сигнал для бизнеса: проблема не сводится к цене модели за токен. Деньги уходят ещё и на сопровождение множества внутренних агентов, устранение ошибок, пересмотр прав доступа и содержание команд, которые должны всё это держать под контролем.

Проблему усиливает непредсказуемость usage-based экономики. В отличие от классического FinOps, где облачные расходы более-менее детерминированы, агентный ИИ ведёт себя вероятностно: длинные цепочки вызовов, автономные циклы и ошибки планирования могут разгонять стоимость одной сессии до экстремальных значений. Авторы даже отмечают, что некоторые AI-first founders уже сталкиваются с расходами порядка $100 000 за одну агентную сессию.

Если не заложить лимиты с самого начала, автономный workflow может легко «съесть» бюджет, сопоставимый с наймом ещё одного сотрудника.

Что это значит

Для бизнеса агентный ИИ — это уже не экспериментальный интерфейс поверх LLM, а новый операционный слой. Победят не те компании, которые быстрее разрешат сотрудникам «собрать своего агента», а те, кто раньше встроит в процессы права доступа, аудит, деактивацию, бюджетные лимиты и постоянный контроль за тем, что агент делает в реальных системах.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…