OpenAI спешно переписывает контракт с Пентагоном после признания Альтмана в «небрежности»
OpenAI пересматривает условия контракта с Министерством обороны США (переименованным в Department of War) после того, как Сэм Альтман публично признал, что сдел

Сэм Альтман редко признаёт ошибки публично. Но в понедельник вечером глава OpenAI фактически расписался в том, что одна из самых громких сделок его компании была проведена, мягко говоря, неаккуратно. Контракт на поставку технологий искусственного интеллекта Министерству обороны США — теперь официально именуемому Department of War — будет пересмотрен, а в его текст внесут явные ограничения на использование ИИ для массовой слежки и работы разведывательных структур.
История началась с того, что OpenAI в ускоренном порядке заключила соглашение с военным ведомством, детали которого просочились в прессу раньше, чем компания успела подготовить внятное публичное объяснение. Реакция оказалась предсказуемо жёсткой: правозащитники, эксперты по цифровой безопасности и часть технологического сообщества выразили серьёзные опасения, что технологии ChatGPT могут быть интегрированы в системы внутреннего наблюдения за гражданами. Особую тревогу вызвала потенциальная связка с Агентством национальной безопасности (АНБ) — структурой, чья репутация после разоблачений Эдварда Сноудена остаётся токсичной для любой технологической компании, дорожащей доверием пользователей.
Альтман, выступая в понедельник, использовал формулировки, нехарактерные для руководителя компании стоимостью в сотни миллиардов долларов. Он назвал сделку «оппортунистической и небрежной» — слова, которые в корпоративном мире обычно произносят не о своих решениях, а о промахах конкурентов. Это признание, впрочем, выглядит скорее как просчитанный шаг по управлению репутационным кризисом, нежели как искреннее раскаяние. OpenAI оказалась в ситуации, когда молчание стоило бы дороже, чем публичное самобичевание.
Пересмотренный контракт, по словам Альтмана, будет содержать явный запрет на два ключевых сценария: использование технологий OpenAI для массовой слежки за населением внутри страны и их передачу разведывательным подразделениям Министерства обороны, включая АНБ. Формально это звучит как серьёзное ограничение. На практике — вопросов остаётся больше, чем ответов. Кто будет контролировать соблюдение этих условий? Как именно определяется «массовая слежка» в юридическом смысле? И что мешает военному ведомству использовать полученные от OpenAI наработки в смежных проектах, формально не подпадающих под ограничения?
Контекст этой истории значительно шире одного контракта. OpenAI проделала примечательную эволюцию от некоммерческой лаборатории, созданной ради «безопасного ИИ на благо человечества», до коммерческого гиганта, активно ищущего государственные заказы. Ещё в 2023 году компания категорически отказывалась работать с военными. В 2024-м политика была тихо пересмотрена — сначала допустили сотрудничество в области кибербезопасности, затем границы размывались всё больше. Контракт с Department of War стал логичным, хотя и болезненным итогом этого дрейфа. Каждый шаг сопровождался оговорками о «защитных» и «оборонительных» целях, но направление движения было очевидным.
Для индустрии в целом ситуация с OpenAI задаёт важный прецедент. Все крупные разработчики ИИ — от Google DeepMind до Anthropic — рано или поздно столкнутся с аналогичным выбором. Государственные контракты приносят стабильный доход и политическое покровительство, но одновременно ставят под удар репутацию среди пользователей и разработчиков, для которых конфиденциальность данных является базовой ценностью. Microsoft, крупнейший инвестор OpenAI, давно работает с Пентагоном через свои облачные сервисы и проект JEDI, но у Microsoft нет потребительского продукта с двумястами миллионами пользователей, которые ежедневно доверяют ему свои мысли, запросы и данные.
Отдельного внимания заслуживает сам факт переименования Министерства обороны в Department of War — решение администрации, которое возвращает ведомству его историческое название, существовавшее до 1947 года. Для OpenAI это создаёт дополнительную оптическую проблему: одно дело — сотрудничать с «Министерством обороны», и совсем другое — с «Министерством войны». Семантика в данном случае работает против компании, усиливая ощущение того, что технологии, созданные для помощи людям, могут быть обращены против них.
Альтман пообещал прозрачность и ограничения. Но доверие — ресурс, который расходуется быстрее, чем накапливается. OpenAI предстоит доказать, что слова о запрете массовой слежки — это не просто строчка в пресс-релизе, а реально работающий механизм контроля. В противном случае компания рискует обнаружить, что потеряла нечто более ценное, чем любой государственный контракт, — веру в то, что она по-прежнему стоит на стороне людей, а не систем, которые за ними наблюдают.