KDnuggets→ оригинал

OWASP وOpenClaw: لماذا تصبح وكلاء AI مشكلة أمنية جديدة

أصبحت وكلاء AI ليست أكثر فائدة فحسب، بل أكثر خطورة أيضًا: فهي الآن لا تكتفي بالرد، بل تستطيع إرسال الرسائل الإلكترونية واستدعاء واجهات API وتغيير البيانات. وفي

OWASP وOpenClaw: لماذا تصبح وكلاء AI مشكلة أمنية جديدة
Источник: KDnuggets. Коллаж: Hamidun News.
◐ Слушать статью

AI-агенты быстро переходят из режима «умного чата» в режим автономных действий, и именно это превращает их в новый класс рисков для компаний. В обзоре разбирается, почему главная проблема уже не в ответах модели, а в том, к каким системам агент получает доступ и что он может сделать без человека.

Почему риски растут

Еще недавно большинство LLM-инструментов ограничивались перепиской с пользователем. Теперь агентные системы умеют планировать шаги, вызывать внешние инструменты, работать с корпоративными API, отправлять письма, менять записи в базах данных и взаимодействовать с внутренними платформами. Как только модель получает право не только советовать, но и действовать, стандартный контур кибербезопасности начинает трещать: ошибка, подмена инструкции или лишнее разрешение уже ведут не к странному ответу, а к реальному действию в проде.

Отдельная проблема — теневой запуск таких инструментов внутри компаний. Автор приводит в пример OpenClaw, open-source self-hosted агента для управления личными и рабочими аккаунтами. По сообщениям начала 2026 года, тысячи его инстансов оказались доступны из интернета без нормальной аутентификации.

Это показательный сценарий: сотрудник ставит удобный агентный инструмент «для ускорения работы», а ИТ-служба узнает о нем только после инцидента. Угроза возникает не из-за самого факта использования AI, а из-за отсутствия контроля над тем, где агент запущен и какие права получил.

Четыре слабых места У агентных систем проблема редко сводится к одной

дыре или одному неудачному промпту. Риск складывается из нескольких уровней сразу: несанкционированного внедрения в компании, зависимости от внешних модулей, новых техник атаки на цели агента и слабого контроля за тем, что он делает между шагами. В статье эти уязвимости собраны в четыре базовые группы, которые уже начинают определять практическую повестку безопасности для агентного софта.

Shadow AI и чрезмерная свобода. Агент, который работает вне политики компании, быстро получает доступы шире, чем ему реально нужны. **Риски цепочки поставок.

Плагины, навыки и расширения могут маскироваться под полезные интеграции, а потом выполнять удаленный код, красть данные или ставить вредоносное ПО. Новые векторы атак.* OWASP уже относит к заметным угрозам agent goal hijack — ситуацию, когда злоумышленник подменяет цель агента скрытыми инструкциями через веб-контент или внешние данные.

* Память и накопление ошибок. Если агент хранит краткосрочную и долгосрочную память между сессиями, в нее можно занести вредные или ложные данные, которые потом исказят решения. На этом проблемы не заканчиваются.

Когда несколько агентов и сервисов связаны между собой, атака развивается на машинной скорости, а не в человеческом темпе. Автор отдельно подчеркивает нехватку circuit breakers — механизмов, которые умеют увидеть подозрительное поведение в рантайме и автоматически остановить процесс. Периметровой защиты уже недостаточно: если агент начал выполнять вредоносную цепочку действий внутри доверенной сети, обычный firewall тут почти бесполезен.

Как должна меняться защита

Главный вывод статьи звучит жестко: агент нельзя защищать так же, как чат-бота или обычную SaaS-интеграцию. Компании нужна наблюдаемость в рантайме — понимание того, какие инструменты агент вызывает, какие данные читает, какие действия пытается выполнить и по какому маршруту дошел до решения. Речь уже идет не о теории, а о практической операционной дисциплине. Без этого расследовать инциденты почти невозможно, а значит, невозможно и нормально ограничивать риски.

«Нельзя защитить то, чего не видно».

Практический минимум выглядит так: давать агентам только необходимые привилегии, относиться к ним как к отдельным цифровым идентичностям, маркировать уровень доверия, логировать все обращения к API и иметь кнопку аварийной остановки. Это не делает агентные системы безопасными по умолчанию, но переводит их из категории «неуправляемый эксперимент» в категорию контролируемого инструмента. Иначе компании будут получать не помощника для автоматизации, а непрозрачный процесс с доступом к критичным системам.

Что это значит AI-агенты не обязаны стать «кошмаром безопасности», но

рынок уже вышел из стадии, где можно ограничиться фильтрацией промптов и базовыми политиками доступа. Для бизнеса вопрос теперь не в том, использовать агентов или нет, а в том, как быстро встроить для них отдельные правила идентификации, мониторинга и аварийного отключения.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…