ZDNet AI→ оригинал

Главная AI-угроза идёт изнутри: как защитить организацию

Главная AI-угроза для кибербезопасности компаний — не внешние хакеры, а внутренние риски. Сотрудники, использующие генеративный ИИ без контроля, утечки данных ч

Главная AI-угроза идёт изнутри: как защитить организацию
Источник: ZDNet AI. Коллаж: Hamidun News.

Когда руководители компаний думают о киберугрозах, связанных с искусственным интеллектом, воображение обычно рисует внешнего противника — хакерскую группировку, вооружённую нейросетями для генерации фишинговых писем или взлома паролей. Но реальность оказывается куда менее кинематографичной и куда более тревожной. Самые серьёзные AI-угрозы для бизнеса рождаются не за периметром корпоративной сети, а внутри неё — в кабинетах, переговорных и на рабочих ноутбуках собственных сотрудников.

Феномен так называемого «теневого AI» стал одной из определяющих проблем корпоративной кибербезопасности в 2025–2026 годах. Суть проста: сотрудники массово используют генеративные AI-инструменты — ChatGPT, Claude, Gemini, Copilot и десятки менее известных сервисов — для ускорения рабочих процессов. Они загружают в эти системы внутренние документы, клиентские данные, фрагменты кода, финансовые отчёты. Делают это не по злому умыслу, а из стремления работать эффективнее. Но каждый такой запрос — потенциальная утечка конфиденциальной информации, которую служба безопасности не видит и не контролирует. По различным оценкам, от 50 до 70 процентов использования AI-инструментов в крупных организациях происходит без ведома IT-отделов.

Проблема усугубляется тем, что компании сами активно внедряют AI в бизнес-процессы, не всегда выстраивая адекватную систему управления рисками. Корпоративные чат-боты получают доступ к внутренним базам данных. AI-ассистенты интегрируются в CRM-системы и инструменты разработки. Модели машинного обучения обучаются на проприетарных данных. Каждая из этих точек интеграции — потенциальный вектор атаки или непреднамеренной утечки. При этом традиционные средства защиты — файрволы, антивирусы, системы обнаружения вторжений — проектировались для совершенно иного ландшафта угроз и попросту не видят эти новые риски.

Эксперты выделяют несколько ключевых направлений внутренней защиты, которые организациям следует выстраивать системно. Первое и фундаментальное — полный аудит AI-инструментов, используемых в компании, включая неофициальные. Невозможно защитить то, о существовании чего вы не знаете. Второе — разработка чётких политик допустимого использования AI, определяющих, какие данные можно и какие категорически нельзя передавать внешним AI-сервисам. Третье — внедрение технических средств контроля: DLP-систем нового поколения, способных отслеживать взаимодействие сотрудников с AI-платформами, и прокси-решений, фильтрующих исходящий трафик к AI-сервисам.

Отдельный блок рекомендаций касается управления AI-моделями, которые компания разрабатывает или использует внутри. Здесь критически важен контроль доступа по принципу минимальных привилегий — AI-система должна иметь доступ только к тем данным, которые необходимы для выполнения конкретной задачи, и ни к чему более. Необходим регулярный аудит того, какие данные используются для обучения и дообучения моделей, а также мониторинг их поведения в продакшене на предмет аномалий — так называемый AI observability. Не менее важна защита от атак на сами модели: инъекции промптов, отравление обучающих данных и извлечение конфиденциальной информации через специально сконструированные запросы стали реальными и документированными угрозами.

Человеческий фактор остаётся центральным элементом любой стратегии защиты. Обучение сотрудников работе с AI должно включать не только повышение продуктивности, но и понимание рисков. Люди должны знать, почему нельзя загружать конфиденциальный контракт в публичный AI-чатбот, даже если это ускоряет подготовку резюме сделки в три раза. Формирование культуры ответственного использования AI — задача не менее важная, чем внедрение технических средств контроля. Компании, которые ограничиваются запретами без объяснений, неизбежно проигрывают: сотрудники просто находят обходные пути.

Для российских организаций эта проблематика имеет дополнительное измерение. Закон о персональных данных и требования регуляторов накладывают жёсткие ограничения на трансграничную передачу информации, а большинство популярных AI-сервисов размещают серверы за рубежом. Каждый сотрудник, отправляющий клиентские данные в зарубежный AI-сервис, потенциально создаёт не только киберриск, но и регуляторный. Это делает задачу контроля внутреннего использования AI не просто вопросом безопасности, а вопросом юридического комплаенса.

Суть происходящего сводится к парадоксу, с которым столкнулась каждая технологически зрелая организация: AI одновременно является инструментом повышения эффективности и источником принципиально новых рисков. Запретить его использование невозможно — это равносильно отказу от электричества. Игнорировать риски — безответственно. Единственный рабочий путь — системное управление, в котором технические средства контроля, организационные политики и образование сотрудников работают как единый механизм. Компании, которые выстроят эту систему раньше других, получат не только защиту, но и конкурентное преимущество: возможность использовать AI агрессивно и при этом безопасно.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…