OpenAI moves into US military systems, while xAI faces lawsuit over Grok and teen imagery
MIT Technology Review brought together two alarming AI stories in one issue. OpenAI is advancing its models toward classified Pentagon systems — from target ana

MIT Technology Review в выпуске от 17 марта 2026 года свела рядом две истории, которые показывают один и тот же сдвиг: генеративный ИИ одновременно заходит в чувствительные государственные контуры и все заметнее проваливается там, где нужны базовые защитные механизмы. OpenAI готовит работу в засекреченных системах Пентагона, а xAI получила иск из-за Grok, который, по версии истцов, помог создавать материалы сексуализированного насилия над детьми (CSAM) на основе реальных фото подростков.
Где появится
OpenAI 28 февраля 2026 года OpenAI объявила о соглашении с Пентагоном о развертывании своих моделей в закрытых средах. Компания отдельно подчеркивает три «красные линии»: запрет на массовую внутреннюю слежку, запрет на использование моделей для управления автономным оружием и запрет на автоматизированные решения с высокой ставкой без участия человека. 2 марта OpenAI добавила в договор формулировки, которые прямо запрещают внутреннюю слежку за гражданами США и использование сервиса для агентств вроде NSA без нового соглашения.
Но главный вопрос не в формулировках, а в том, как технология будет применяться на практике. По данным MIT Technology Review, интеграция еще не завершена: модели OpenAI нужно встроить в уже существующие военные системы и процессы. На этом фоне особенно заметно, как быстро компания развернулась в сторону оборонного рынка после конфликта Пентагона с Anthropic.
Если раньше тема военного применения ИИ обсуждалась в терминах будущих рисков, то теперь речь идет уже о конкретном внедрении в разгар конфликта с Ираном.
Три сценария применения MIT
Technology Review описывает несколько направлений, где OpenAI может появиться в военной инфраструктуре США уже в ближайшей перспективе. * Приоритизация целей. Военный аналитик может загрузить список потенциальных целей, логистические данные, видео и изображения, а модель — выдать рекомендации, что проверять и по чему бить в первую очередь.
Формально финальное решение остается за человеком, но именно здесь возникает вопрос, насколько «ручной контроль» реально сдерживает скорость машинных подсказок. * ПВО и борьба с дронами. Через партнерство с Anduril модели OpenAI могут получить роль разговорного слоя поверх систем, которые уже анализируют сенсоры и видео с поля боя.
То есть ИИ не обязательно сам наводит оружие, но может подсказывать солдатам интерпретацию угроз и варианты реакции в естественном языке. * Военная бюрократия. Модели OpenAI уже заявлены для платформы GenAI.
mil, где их собираются использовать для черновиков контрактов, политических документов и административной поддержки миссий. Это менее драматичный сценарий, но он показывает, как ИИ становится частью повседневной работы Пентагона. *Быстрое масштабирование.
** Если модели окажутся полезными, их смогут довольно быстро встроить в более широкий стек военных интерфейсов и сервисов. Это увеличивает не только потенциальную эффективность, но и масштаб ошибок.
Иск против
Grok На другом конце этой же истории — не поле боя, а потребительский продукт без достаточных ограничений. 16 марта 2026 года трое подростков из Теннесси подали иск против xAI в федеральный суд Калифорнии. По версии истцов, инструменты Grok использовались для создания сексуализированных изображений несовершеннолетних на основе обычных фотографий, где они были одеты.
В материалах дела фигурируют фото с выпускных мероприятий, школьного альбома и соцсетей; затем эти файлы, как утверждается в иске, распространялись через Discord и Telegram и обменивались на другой незаконный контент. Истцы хотят придать делу статус коллективного иска и представлять, как сказано в жалобе, тысячи потенциальных жертв. В иске отдельно утверждается, что xAI сознательно выпустила систему, способную генерировать откровенный контент, хотя риск появления CSAM был предсказуемым.
Ранее Grok уже попадал в скандалы из-за сексуализированных дипфейков, а после январской волны критики часть функций сделали доступной только платным подписчикам — что, по версии истцов, не решило проблему, а лишь монетизировало ее.
«Эти дети теперь могут прожить всю жизнь с тем, что такие изображения
существуют в интернете», — так адвокат истцов описала последствия дела.
Что это значит Эти две новости хорошо показывают, что у AI-индустрии сейчас двойной кризис доверия.
С одной стороны, модели все глубже входят в военные и государственные решения, где цена ошибки измеряется жизнями и политическими последствиями. С другой — даже базовые потребительские продукты до сих пор не умеют надежно блокировать очевидно опасные сценарии. Для рынка это сигнал простой: спор вокруг ИИ больше не про демо и вау-эффект, а про ответственность, контроль и реальные границы допустимого.