Raft ve un nuevo mercado: los integradores tienen una nueva forma de ganar con la seguridad de AI
Las empresas implantan AI más rápido de lo que alcanzan a comprobar su resistencia a los ataques. En este contexto, Raft propone AI Security Assessment como un
Безопасность ИИ быстро превращается из побочной задачи в отдельный рынок услуг. На этом фоне Raft предлагает интеграторам занять нишу AI-пентеста: спрос растет из-за новых типов атак, требований регуляторов и нехватки специалистов, которые умеют проверять модели, датасеты и RAG-системы.
Почему тема выросла
Искусственный интеллект в корпоративном сегменте уже перестал быть экспериментом. Компании ставят LLM-чат-ботов на сайты, подключают AI-ассистентов к документообороту и внедряют RAG-системы для работы с внутренними базами знаний. По данным, на которые ссылается Raft, в 2026 году ИИ уже используют 39% российских компаний.
Бизнес идет в эту зону ради скорости, сокращения расходов и автоматизации, но почти всегда внедрение обгоняет процессы оценки рисков. Из-за этого ИИ попадает в инфраструктуру раньше, чем появляется понятная схема его защиты. Проблема в том, что классические средства ИБ закрывают только часть угроз.
Для WAF, DLP или NGFW диалог пользователя с генеративной моделью часто выглядит как обычная работа с сервисом. Но атака может происходить прямо внутри текстового запроса, без эксплойтов и вредоносных файлов. Это меняет подход к защите: недостаточно просто закрыть периметр, нужно проверять, как сама модель реагирует на провокации, какие данные может раскрыть и можно ли заставить ее нарушить исходные инструкции.
Какие атаки важны
Новый слой угроз появился вместе с генеративными моделями и агентами, которые получают доступ к документам, коду и внутренним сервисам. Для заказчика это означает, что поверхность атаки расширяется не только за счет самого ИИ, но и за счет его интеграции в бизнес-процессы. Особенно рискованной становится среда, где модели подключены к корпоративным базам знаний, внутренним API и инструментам разработки.
И чем глубже такая интеграция, тем меньше пользы от стандартных чек-листов безопасности. Prompt injection — попытка подменить или обойти системные инструкции через специально составленный запрос. Data poisoning — внедрение вредоносных или искаженных данных в обучающие и справочные наборы.
Model extraction — восстановление логики модели через API или массовые запросы, вплоть до утечки данных. Supply chain-риски — уязвимости в цепочке инструментов, когда AI-агенты используют библиотеки, код и shell-команды без достаточного контроля. Raft отдельно подчеркивает, что этот ландшафт меняется очень быстро: безопасная вчера схема сегодня может оказаться уязвимой для нового джейлбрейка или инъекции.
Поэтому защита ИИ плохо сочетается с разовой проверкой «для галочки». Это заставляет бизнес переходить к постоянным red teaming-проверкам, где модель тестируют так же регулярно, как внешние сервисы и пользовательские интерфейсы.
«Защита здесь требует не разового внедрения волшебной таблетки, а
постоянного мониторинга и тестирования».
Где деньги для интегратора На фоне этих рисков рынок начинает требовать отдельную экспертизу.
В статье приводится оценка, что в 2026 году до 10% атак на банковские ИТ-инфраструктуры могут быть связаны с уязвимостями ИИ. Одновременно вступил в силу приказ ФСТЭК России №117 от 1 марта 2026 года, который впервые прямо упоминает защиту обучающих датасетов, моделей, параметров и сервисов принятия решений. Для крупных заказчиков это означает простой вывод: ИИ больше нельзя считать «надстройкой», его придется проверять как полноценный элемент критичной ИТ-среды.
Отсюда и окно возможностей для интеграторов. Заказчики уже покупают AI-решения, но у многих нет ни методологии, ни специалистов, ни инструментов для оценки их устойчивости к атакам. Именно поэтому AI Security Assessment или AI-пентест начинает выглядеть как новая маржинальная услуга.
В базовый пакет могут входить инвентаризация всех AI-компонентов, моделирование угроз, контролируемые атаки вроде jailbreak и prompt injection, а затем карта рисков и рекомендации по защите. Это не разовая коробка, а сервис с регулярными проверками и последующим сопровождением. Raft пытается занять эту нишу со своей платформой HiveTrace Red и партнерской программой для интеграторов.
Компания обещает инструмент для автоматизированных и полуавтоматических атак на LLM, RAG-решения и ML-модели, плюс обучение продаже и проведению таких проектов. По сути, речь идет о попытке упаковать AI-безопасность в понятный B2B-продукт: дать подрядчикам платформу, методику и первые совместные кейсы, чтобы быстрее выйти на рынок. Для небольших команд это способ зайти в тему без многолетней собственной R&D-фазы.
Что это значит
Рынок ИИ постепенно повторяет путь классической информационной безопасности: сначала бизнес массово внедряет новые технологии, потом появляются атаки, требования регулятора и отдельный класс подрядчиков. Если прогноз по спросу оправдается, в ближайшие годы AI-пентест и аудит моделей станут для интеграторов такой же нормой, как веб-пентест или аудит инфраструктуры. Для заказчиков это значит рост расходов на проверку ИИ, а для подрядчиков — появление новой выручки.