MarkTechPost→ оригинал

Теневой AI в 63% компаний: как инструменты обогнали корпоративные политики

63% организаций работают без политик управления AI. Сотрудники уже используют ChatGPT, Claude и другие инструменты самостоятельно — это теневой AI. Получается,

Теневой AI в 63% компаний: как инструменты обогнали корпоративные политики
Источник: MarkTechPost. Коллаж: Hamidun News.
◐ Слушать статью

Две трети корпораций работают без формальных политик управления искусственным интеллектом, при этом сотрудники уже активно внедряют AI-инструменты самостоятельно.

Кризис governance в 2026

Исследование показывает, что 63% организаций не имеют утвержденной политики управления AI. Это огромный разрыв между тем, что планируют IT-лидеры, и тем, что происходит на местах. Компании говорят об AI-стратегии на уровне совета директоров, а сотрудники уже давно используют ChatGPT, Claude, Perplexity и другие инструменты в повседневной работе. Проблема усугубляется критической слепотой: компании не знают, какой AI используется внутри их стеков. Никто не отслеживает, какие данные попадают в публичные API, какие риски это создаёт для интеллектуальной собственности, какие аналитики обучаются на корпоративной информации.

Теневой AI захватил бизнес

Shadow AI — это неконтролируемое внедрение AI-инструментов сотрудниками без одобрения IT-отдела и без видимости для руководства. Это может выглядеть так: Маркетолог использует ChatGPT для написания описания товара и ценовой стратегии Разработчик копирует код из Copilot прямо в production без review Финансист загружает конфиденциальные данные в облачный AI для анализа Менеджер анализирует стратегию конкурентов через публичные AI-модели * Служба поддержки заменяет шаблоны ответов на AI-сгенерированные без проверки качества Все эти действия совершаются вне корпоративного контроля и часто без ведома IT-безопасности. Компании не знают масштаба утечек, качества решений, соответствия регуляциям GDPR, HIPAA или другим.

Огромные риски рядом Когда инструменты опережают политики, масштаб проблем становится опасным.

Торговые секреты уходят в облако, когда сотрудники загружают конфиденциальные данные в публичные API ChatGPT или Claude. Качество страдает — AI может галлюцинировать, выдавать неточные расчёты, давать неправильные рекомендации в финансовых или медицинских решениях. Есть и юридические вопросы. Если компания использует AI, обучавшийся на копирайтах других авторов без лицензии, это может привести к судебным разбирательствам. Если AI делает ошибку, которая наносит убыток клиентам, кто за неё отвечает — компания или разработчик модели?

«Инструменты опережают политики — это главный вызов корпоративного AI в 2026-м».

Что это значит Компании срочно должны наверстать упущенное.

Нужны чёткие политики управления: что можно использовать, какие данные допустимо давать AI, как проверять качество результатов, как отслеживать использование, как обучать сотрудников. Иначе shadow AI будет только расти, и риски вырастут вместе с ним.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Что вы думаете?
Загружаем комментарии…