OpenAI идет в военные системы США, а xAI судят из-за Grok и изображений подростков
MIT Technology Review собрала в одном выпуске две тревожные новости об ИИ. OpenAI подводит свои модели к засекреченным системам Пентагона — от анализа целей и б

MIT Technology Review в выпуске от 17 марта 2026 года свела рядом две истории, которые показывают один и тот же сдвиг: генеративный ИИ одновременно заходит в чувствительные государственные контуры и все заметнее проваливается там, где нужны базовые защитные механизмы. OpenAI готовит работу в засекреченных системах Пентагона, а xAI получила иск из-за Grok, который, по версии истцов, помог создавать материалы сексуализированного насилия над детьми (CSAM) на основе реальных фото подростков.
Где появится
OpenAI 28 февраля 2026 года OpenAI объявила о соглашении с Пентагоном о развертывании своих моделей в закрытых средах. Компания отдельно подчеркивает три «красные линии»: запрет на массовую внутреннюю слежку, запрет на использование моделей для управления автономным оружием и запрет на автоматизированные решения с высокой ставкой без участия человека. 2 марта OpenAI добавила в договор формулировки, которые прямо запрещают внутреннюю слежку за гражданами США и использование сервиса для агентств вроде NSA без нового соглашения.
Но главный вопрос не в формулировках, а в том, как технология будет применяться на практике. По данным MIT Technology Review, интеграция еще не завершена: модели OpenAI нужно встроить в уже существующие военные системы и процессы. На этом фоне особенно заметно, как быстро компания развернулась в сторону оборонного рынка после конфликта Пентагона с Anthropic.
Если раньше тема военного применения ИИ обсуждалась в терминах будущих рисков, то теперь речь идет уже о конкретном внедрении в разгар конфликта с Ираном.
Три сценария применения MIT
Technology Review описывает несколько направлений, где OpenAI может появиться в военной инфраструктуре США уже в ближайшей перспективе. * Приоритизация целей. Военный аналитик может загрузить список потенциальных целей, логистические данные, видео и изображения, а модель — выдать рекомендации, что проверять и по чему бить в первую очередь.
Формально финальное решение остается за человеком, но именно здесь возникает вопрос, насколько «ручной контроль» реально сдерживает скорость машинных подсказок. * ПВО и борьба с дронами. Через партнерство с Anduril модели OpenAI могут получить роль разговорного слоя поверх систем, которые уже анализируют сенсоры и видео с поля боя.
То есть ИИ не обязательно сам наводит оружие, но может подсказывать солдатам интерпретацию угроз и варианты реакции в естественном языке. * Военная бюрократия. Модели OpenAI уже заявлены для платформы GenAI.
mil, где их собираются использовать для черновиков контрактов, политических документов и административной поддержки миссий. Это менее драматичный сценарий, но он показывает, как ИИ становится частью повседневной работы Пентагона. *Быстрое масштабирование.
** Если модели окажутся полезными, их смогут довольно быстро встроить в более широкий стек военных интерфейсов и сервисов. Это увеличивает не только потенциальную эффективность, но и масштаб ошибок.
Иск против
Grok На другом конце этой же истории — не поле боя, а потребительский продукт без достаточных ограничений. 16 марта 2026 года трое подростков из Теннесси подали иск против xAI в федеральный суд Калифорнии. По версии истцов, инструменты Grok использовались для создания сексуализированных изображений несовершеннолетних на основе обычных фотографий, где они были одеты.
В материалах дела фигурируют фото с выпускных мероприятий, школьного альбома и соцсетей; затем эти файлы, как утверждается в иске, распространялись через Discord и Telegram и обменивались на другой незаконный контент. Истцы хотят придать делу статус коллективного иска и представлять, как сказано в жалобе, тысячи потенциальных жертв. В иске отдельно утверждается, что xAI сознательно выпустила систему, способную генерировать откровенный контент, хотя риск появления CSAM был предсказуемым.
Ранее Grok уже попадал в скандалы из-за сексуализированных дипфейков, а после январской волны критики часть функций сделали доступной только платным подписчикам — что, по версии истцов, не решило проблему, а лишь монетизировало ее.
«Эти дети теперь могут прожить всю жизнь с тем, что такие изображения
существуют в интернете», — так адвокат истцов описала последствия дела.
Что это значит Эти две новости хорошо показывают, что у AI-индустрии сейчас двойной кризис доверия.
С одной стороны, модели все глубже входят в военные и государственные решения, где цена ошибки измеряется жизнями и политическими последствиями. С другой — даже базовые потребительские продукты до сих пор не умеют надежно блокировать очевидно опасные сценарии. Для рынка это сигнал простой: спор вокруг ИИ больше не про демо и вау-эффект, а про ответственность, контроль и реальные границы допустимого.