اختبر البنتاغون نماذج OpenAI عبر Microsoft متجاوزًا حظر الاستخدام العسكري
بحسب Wired، أجرى البنتاغون تجارب على نماذج OpenAI عبر البنية التحتية السحابية لـ Microsoft Azure بينما كان الحظر الصريح الذي تفرضه الشركة على الاستخدام العسكري

Когда OpenAI в своих ранних документах о политике использования чёрным по белому прописала запрет на военное применение своих моделей, это выглядело как принципиальная позиция одной из самых влиятельных AI-компаний мира. Теперь выясняется, что Пентагон нашёл элегантный обходной путь задолго до того, как компания официально пересмотрела свои правила.
По информации источников издания Wired, Министерство обороны США проводило эксперименты с технологиями OpenAI, получая доступ к ним не напрямую, а через облачную платформу Microsoft Azure. Схема была проста и при этом формально безупречна: Microsoft, вложившая в OpenAI миллиарды долларов, имеет лицензионное право на использование моделей компании в собственных продуктах и сервисах. Azure предоставляет корпоративным и государственным клиентам доступ к этим моделям в рамках своей облачной экосистемы. Пентагон — давний и крупный клиент Microsoft. Все звенья цепочки на месте, и ни одно из них формально не нарушает букву запрета OpenAI, который распространялся на прямое использование её сервисов в военных целях.
Контекст этой истории уходит корнями в фундаментальное противоречие, заложенное в саму бизнес-модель OpenAI. Компания, основанная в 2015 году как некоммерческая исследовательская лаборатория с миссией обеспечить безопасное развитие искусственного интеллекта на благо человечества, постепенно трансформировалась в коммерческого гиганта. Партнёрство с Microsoft, начавшееся с инвестиции в один миллиард долларов в 2019 году и выросшее до многомиллиардного стратегического альянса, стало двигателем этой трансформации. Но оно же создало структурную лазейку: передавая лицензии на свои модели Microsoft, OpenAI фактически теряла полный контроль над тем, кому и как эти модели предоставляются дальше.
Технически Пентагон мог использовать модели OpenAI через Azure для широкого спектра задач — от обработки разведывательных данных и анализа документов до планирования логистических операций и моделирования сценариев. Военное ведомство США давно проявляло интерес к большим языковым моделям как инструменту повышения эффективности командных структур. И хотя точный характер экспериментов не раскрывается, сам факт их проведения в обход публичной политики OpenAI говорит о многом.
В январе 2024 года OpenAI тихо изменила свою политику допустимого использования, убрав из неё явный запрет на военное и оборонное применение. Компания объяснила это решение необходимостью более нюансированного подхода, подчеркнув, что запрет на использование для причинения вреда людям остаётся в силе. Критики, однако, увидели в этом легализацию уже существующей практики — своего рода признание реальности, в которой этические ограничения оказались слабее коммерческих интересов и государственного давления.
Эта история обнажает системную проблему, которая выходит далеко за рамки одной компании. Современная AI-индустрия построена на сложных партнёрских и лицензионных отношениях, где технологии одного разработчика встраиваются в продукты и платформы десятков других компаний. В такой экосистеме этические политики отдельного разработчика превращаются в декларации о намерениях, а не в реальные ограничения. Если модель доступна через API партнёра, запрет на определённые виды использования становится вопросом доверия, а не технического контроля. Microsoft, со своей стороны, имеет многолетнюю историю сотрудничества с Пентагоном и никогда не разделяла пацифистскую риторику ранней OpenAI — контракт JEDI и его преемник JWCC на десятки миллиардов долларов тому подтверждение.
Для всей индустрии искусственного интеллекта урок прозрачен и неутешителен. Этические рамки, не подкреплённые техническими механизмами контроля и юридически обязывающими соглашениями с партнёрами, остаются благими пожеланиями. Пока AI-компании выстраивают свои экосистемы через лицензирование и облачные платформы, реальный контроль над конечным использованием технологий будет неизбежно размываться. А вопрос о том, должны ли самые мощные AI-системы мира работать на военные ведомства, из области корпоративной этики окончательно переходит в область геополитики, где ответы определяются не миссиями стартапов, а логикой великодержавной конкуренции.