Russian companies are shifting to systematic security for AI agents instead of point checks
AI agents already work with code, git, shell, and internal services, so they are becoming part of infrastructure, not just a "smart chatbot". Instead of endless

Безопасность ИИ-агентов уже нельзя решать в режиме ручного разбора каждого нового инструмента: LLM и coding-агенты получили доступ к коду, shell, git, сети и секретам, поэтому их надо рассматривать как обычные сервисы с очень широкими правами. Когда такие системы встраиваются в разработку, тестирование и эксплуатацию, вопрос стоит не в том, можно ли им доверять, а в том, какие ограничения, политики и наблюдаемость компания заложила вокруг них. За последние два-три года российские компании перестали воспринимать генеративный ИИ как любопытный эксперимент и начали встраивать его в повседневные процессы.
Речь уже не только о чатах поддержки или черновиках текстов: модели помогают разработчикам, участвуют в code review, генерируют инфраструктурный код, работают с конфигурацией и все чаще становятся частью реальных продуктов. На это же указывают и международные рекомендации: NIST предлагает смотреть на генеративный ИИ как на элемент критичной инфраструктуры, а ENISA отдельно разбирает его роль в DevSecOps и инженерной автоматизации. Логика простая: как только модель получает доступ к данным, инструментам и возможности что-то выполнять, она перестает быть просто интерфейсом и становится рабочим узлом системы.
Вместе с этим меняется и профиль угроз. К классическим проблемам вроде ошибок авторизации и инъекций добавляются риски, которые описывает OWASP Top 10 for LLM Applications: prompt injection, небезопасная обработка ответа модели, утечки секретов через контекст, слишком широкие полномочия агентов и небезопасный дизайн плагинов или tools. Исследование нескольких ИИ-агентов показало повторяющуюся картину: почти у всех есть доступ к shell через локальные команды, Docker или SSH, многие умеют напрямую работать с git, создавать ветки и коммиты, а в конфигурации нередко встречаются опасные режимы в духе bypassPermissions.
В такой связке достаточно одной удачной инъекции или одного небезопасно обработанного ответа модели, чтобы агент выполнил произвольную команду, вытащил токены и ключи, незаметно изменил код или начал ходить по внутренним сервисам и CI/CD-цепочке. Проблема в том, что ручная проверка каждого нового агента плохо масштабируется. Даже если разработчик инструмента уже добавил песочницу по умолчанию, модуль для работы с секретами, редактирование чувствительных данных в логах и документацию по безопасному запуску, службе безопасности все равно приходится почти с нуля разбирать, насколько этим настройкам можно доверять.
Поэтому автор предлагает убрать из обсуждения само слово ИИ и смотреть на агента как на black box-сервис с широкими правами. Если такой сервис умеет читать и менять файлы, запускать команды, вызывать внешние API и пушить код, то проверять его нужно через привычные домены: кто именно инициирует действия, какие права получает агент, где он запускается, к каким директориям, сетям и инструментам имеет доступ, что логируется и как быстро команда увидит аномалию. Из этого вытекает вполне практичный профиль защиты.
Во-первых, нужны четкие правила авторизации и минимальных привилегий: какой репозиторий видит агент, может ли он писать или только читать, разрешено ли ему запускать тесты, миграции или shell-команды. Во-вторых, важна изоляция: контейнер, отдельный runner или выделенное окружение с жестко ограниченными mounts, без лишнего доступа к docker.sock, Kubernetes API и продовым секретам.
В-третьих, нужен сетевой контроль с белыми списками доменов и понятной политикой внешних запросов. И, наконец, обязательны статический анализ кода и конфигов, лабораторные динамические тесты с honeypot-файлами и фейковыми секретами, а также аудит и алерты на нетипичное поведение агента. Такой подход не запрещает внедрение ИИ, а превращает его из модного и плохо предсказуемого инструмента в управляемый компонент инженерной инфраструктуры.
Что это значит на практике: безопасность не должна тормозить внедрение coding-агентов, но и доверять им по умолчанию нельзя. Если вместе с командами разработки заранее собрать единый профиль требований, проверить типовые риски в изолированной среде и зафиксировать политики доступа, то появление нового ИИ-инструмента перестанет каждый раз превращаться в срочную и дорогую экспертизу. Для бизнеса это означает более быстрое внедрение полезной автоматизации без лишнего риска для кода, секретов и внутренней инфраструктуры.