Raft ترى سوقًا جديدة: تُعرض على شركات التكامل فرصة الربح من أمن AI
تتبنى الشركات AI بوتيرة أسرع من قدرتها على التحقق من قدرتها على الصمود أمام الهجمات. وفي هذا السياق، تطرح Raft خدمة AI Security Assessment كخدمة جديدة لشركات ال
Безопасность ИИ быстро превращается из побочной задачи в отдельный рынок услуг. На этом фоне Raft предлагает интеграторам занять нишу AI-пентеста: спрос растет из-за новых типов атак, требований регуляторов и нехватки специалистов, которые умеют проверять модели, датасеты и RAG-системы.
Почему тема выросла
Искусственный интеллект в корпоративном сегменте уже перестал быть экспериментом. Компании ставят LLM-чат-ботов на сайты, подключают AI-ассистентов к документообороту и внедряют RAG-системы для работы с внутренними базами знаний. По данным, на которые ссылается Raft, в 2026 году ИИ уже используют 39% российских компаний.
Бизнес идет в эту зону ради скорости, сокращения расходов и автоматизации, но почти всегда внедрение обгоняет процессы оценки рисков. Из-за этого ИИ попадает в инфраструктуру раньше, чем появляется понятная схема его защиты. Проблема в том, что классические средства ИБ закрывают только часть угроз.
Для WAF, DLP или NGFW диалог пользователя с генеративной моделью часто выглядит как обычная работа с сервисом. Но атака может происходить прямо внутри текстового запроса, без эксплойтов и вредоносных файлов. Это меняет подход к защите: недостаточно просто закрыть периметр, нужно проверять, как сама модель реагирует на провокации, какие данные может раскрыть и можно ли заставить ее нарушить исходные инструкции.
Какие атаки важны
Новый слой угроз появился вместе с генеративными моделями и агентами, которые получают доступ к документам, коду и внутренним сервисам. Для заказчика это означает, что поверхность атаки расширяется не только за счет самого ИИ, но и за счет его интеграции в бизнес-процессы. Особенно рискованной становится среда, где модели подключены к корпоративным базам знаний, внутренним API и инструментам разработки.
И чем глубже такая интеграция, тем меньше пользы от стандартных чек-листов безопасности. Prompt injection — попытка подменить или обойти системные инструкции через специально составленный запрос. Data poisoning — внедрение вредоносных или искаженных данных в обучающие и справочные наборы.
Model extraction — восстановление логики модели через API или массовые запросы, вплоть до утечки данных. Supply chain-риски — уязвимости в цепочке инструментов, когда AI-агенты используют библиотеки, код и shell-команды без достаточного контроля. Raft отдельно подчеркивает, что этот ландшафт меняется очень быстро: безопасная вчера схема сегодня может оказаться уязвимой для нового джейлбрейка или инъекции.
Поэтому защита ИИ плохо сочетается с разовой проверкой «для галочки». Это заставляет бизнес переходить к постоянным red teaming-проверкам, где модель тестируют так же регулярно, как внешние сервисы и пользовательские интерфейсы.
«Защита здесь требует не разового внедрения волшебной таблетки, а
постоянного мониторинга и тестирования».
Где деньги для интегратора На фоне этих рисков рынок начинает требовать отдельную экспертизу.
В статье приводится оценка, что в 2026 году до 10% атак на банковские ИТ-инфраструктуры могут быть связаны с уязвимостями ИИ. Одновременно вступил в силу приказ ФСТЭК России №117 от 1 марта 2026 года, который впервые прямо упоминает защиту обучающих датасетов, моделей, параметров и сервисов принятия решений. Для крупных заказчиков это означает простой вывод: ИИ больше нельзя считать «надстройкой», его придется проверять как полноценный элемент критичной ИТ-среды.
Отсюда и окно возможностей для интеграторов. Заказчики уже покупают AI-решения, но у многих нет ни методологии, ни специалистов, ни инструментов для оценки их устойчивости к атакам. Именно поэтому AI Security Assessment или AI-пентест начинает выглядеть как новая маржинальная услуга.
В базовый пакет могут входить инвентаризация всех AI-компонентов, моделирование угроз, контролируемые атаки вроде jailbreak и prompt injection, а затем карта рисков и рекомендации по защите. Это не разовая коробка, а сервис с регулярными проверками и последующим сопровождением. Raft пытается занять эту нишу со своей платформой HiveTrace Red и партнерской программой для интеграторов.
Компания обещает инструмент для автоматизированных и полуавтоматических атак на LLM, RAG-решения и ML-модели, плюс обучение продаже и проведению таких проектов. По сути, речь идет о попытке упаковать AI-безопасность в понятный B2B-продукт: дать подрядчикам платформу, методику и первые совместные кейсы, чтобы быстрее выйти на рынок. Для небольших команд это способ зайти в тему без многолетней собственной R&D-фазы.
Что это значит
Рынок ИИ постепенно повторяет путь классической информационной безопасности: сначала бизнес массово внедряет новые технологии, потом появляются атаки, требования регулятора и отдельный класс подрядчиков. Если прогноз по спросу оправдается, в ближайшие годы AI-пентест и аудит моделей станут для интеграторов такой же нормой, как веб-пентест или аудит инфраструктуры. Для заказчиков это значит рост расходов на проверку ИИ, а для подрядчиков — появление новой выручки.