Intel warns: agentic AI has moved beyond its "childhood" stage and requires a new control model
Intel says agentic AI has entered a phase of rapid maturation: no-code tools and personal agents are already moving faster inside companies than corporate rules

Intel предлагает смотреть на агентный ИИ как на ребёнка, который внезапно перестал ползать и начал бегать. Компании ещё спорят о политиках и комитетах, а автономные агенты уже получают доступ к рабочим процессам, бюджетам и критичным системам — значит, старые подходы к контролю больше не работают.
От чат-ботов к агентам В материале для MIT
Technology Review авторы сравнивают нынешний этап agentic AI с «детским возрастом». Переход случился быстро: в конце 2025-го и начале 2026-го на рынок вышла волна no-code-инструментов, а вместе с ней — OpenClaw, open-source персональный агент с GitHub. Если раньше ИИ в основном ждал запроса в интерфейсе чат-бота, то теперь он сам проходит по цепочке действий: читает данные, принимает промежуточные решения и двигает процесс дальше без постоянного подтверждения человека.
Именно здесь, по мнению Intel, ломается прежняя модель governance. Раньше бизнес концентрировался на рисках ответа модели: галлюцинациях, дрейфе, утечке данных, отравлении данных. Но когда агент начинает выполнять workflow на машинной скорости, смысл human in the loop резко уменьшается.
Для компании это уже не вопрос «что сказал бот», а вопрос «что бот успел сделать» — например, какие записи изменил, какие разрешения использовал и какие действия запустил дальше по цепочке.
Где ломается контроль
Главная мысль материала — управлять агентами через документы и комитеты уже поздно. Ограничения должны быть встроены прямо в код и бизнес-процессы с учётом уровня риска, прав доступа и возможной ответственности. Иначе агент с вероятностной логикой получает слишком много свободы в системах, где ошибка дорого обходится. Это меняет и архитектуру, и зону ответственности: если агент ошибается, отвечать всё равно будет не модель, а компания, которая дала ей доступ к прод-среде.
«ИИ делает работу, а люди несут риск». * агент может собрать цепочку
действий через несколько корпоративных систем и получить больше влияния, чем один сотрудник; в компании быстро накапливаются сервисные аккаунты, долгоживущие API-токены и права на изменение ключевых файлов и данных; появляется новый слой shadow AI, когда сотрудники создают собственных помощников без архитектуры, поддержки и нормального аудита; при переводе сотрудника в другой отдел или после увольнения остаются «осиротевшие» агенты, связанные с его ID и разрешениями; neglected AI pilots и «зомби-проекты» продолжают крутиться в облаке и сжигать ресурсы без понятного владельца. Авторы отдельно проводят аналогию с малышом, которому внезапно дали слишком мощную игрушку. Для корпоративной среды смысл прост: нельзя выпускать автономного агента в прод без наблюдаемости, возможности быстро отозвать доступ и механизма принудительной остановки.
Нужны discovery, audit trail, remediation и понятная процедура деактивации, иначе выгода от автоматизации исчезает в момент первого же инцидента, а разбор последствий оказывается дороже самой пользы от внедрения.
Цена автономии
Intel также спорит с популярной идеей, что агентный ИИ — это просто способ урезать фонд оплаты труда. В enterprise-модели расходы ведут себя иначе: это не фиксированная лицензия на пользователя, а потребление токенов, вычислений и внешних API по мере роста workflow. Экономия на людях оказывается слишком грубой метрикой, потому что вместе с автоматизацией растут затраты на наблюдаемость, поддержку, безопасность и финансовый контроль всей агентной инфраструктуры.
В материале приводится декабрьский опрос IDC, заказанный DataRobot: 96% компаний, внедряющих generative AI, и 92% организаций, внедряющих agentic AI, сообщили, что затраты оказались выше или намного выше ожиданий. Это важный сигнал для бизнеса: проблема не сводится к цене модели за токен. Деньги уходят ещё и на сопровождение множества внутренних агентов, устранение ошибок, пересмотр прав доступа и содержание команд, которые должны всё это держать под контролем.
Проблему усиливает непредсказуемость usage-based экономики. В отличие от классического FinOps, где облачные расходы более-менее детерминированы, агентный ИИ ведёт себя вероятностно: длинные цепочки вызовов, автономные циклы и ошибки планирования могут разгонять стоимость одной сессии до экстремальных значений. Авторы даже отмечают, что некоторые AI-first founders уже сталкиваются с расходами порядка $100 000 за одну агентную сессию.
Если не заложить лимиты с самого начала, автономный workflow может легко «съесть» бюджет, сопоставимый с наймом ещё одного сотрудника.
Что это значит
Для бизнеса агентный ИИ — это уже не экспериментальный интерфейс поверх LLM, а новый операционный слой. Победят не те компании, которые быстрее разрешат сотрудникам «собрать своего агента», а те, кто раньше встроит в процессы права доступа, аудит, деактивацию, бюджетные лимиты и постоянный контроль за тем, что агент делает в реальных системах.