Los agentes de AI crean una nueva superficie de ataque: cómo las empresas están construyendo defensas
Los agentes de AI en las empresas crean una nueva superficie de ataque: los sistemas desprotegidos pueden usarse para acceder a datos sensibles. En varias grand

Пока компании массово внедряют ИИ-агентов для работы бок о бок с людьми, они могут непреднамеренно открывать дверь для новых типов кибератак. Незащищённые агенты поддаются манипуляции и способны получать доступ к критически важным системам и коммерческой тайне — незаметно для команд безопасности. Главная проблема кроется в понятии нечеловеческих идентификаторов (Non-Human Identities, NHI).
Это токены, ключи API, сервисные аккаунты и прочие механизмы, через которые программные системы — в том числе агенты ИИ — аутентифицируются и взаимодействуют с другими сервисами. В ряде современных крупных предприятий NHI уже превышают по числу человеческие аккаунты. Переход к агентному ИИ, по прогнозам MIT Technology Review, сделает этот разрыв экспоненциальным.
Каждый такой идентификатор — потенциальная точка входа. Если агент действует с избыточными правами или его учётные данные скомпрометированы, злоумышленник получает доступ не просто к одному аккаунту, а ко всей инфраструктуре, с которой агент взаимодействует. При этом традиционные инструменты мониторинга, настроенные на отслеживание действий людей, попросту не замечают подобных угроз.
Эксперты выделяют несколько направлений для выстраивания защиты агентного уровня. Первое — принцип минимальных привилегий: агент должен иметь ровно те права, которые нужны для конкретной задачи, не больше. Второе — аудит и ротация NHI наравне с человеческими паролями.
Третье — внедрение политик нулевого доверия (zero trust) для каждого агентного взаимодействия: ни один запрос не считается безопасным по умолчанию. Отдельная угроза — так называемые prompt injection атаки, при которых вредоносные инструкции встраиваются во входные данные агента и заставляют его выполнять несанкционированные действия. Это особенно опасно, когда агент имеет доступ к корпоративным базам данных или инструментам автоматизации.
Переход к агентному ИИ — не просто технический сдвиг, это переосмысление самой модели корпоративной безопасности. Компании, которые не выстроят управление нечеловеческими идентификаторами уже сейчас, рискуют столкнуться с утечками, которые будут крайне сложно атрибутировать и расследовать. Governance для агентного ИИ становится не опцией, а базовым требованием.