Wired→ оригинал

Пентагон тестировал модели OpenAI через Microsoft, обходя запрет на военное использование

По данным Wired, Пентагон проводил эксперименты с моделями OpenAI через облачную инфраструктуру Microsoft Azure ещё в период действия прямого запрета компании н

Пентагон тестировал модели OpenAI через Microsoft, обходя запрет на военное использование
Источник: Wired. Коллаж: Hamidun News.

Когда OpenAI в своих ранних документах о политике использования чёрным по белому прописала запрет на военное применение своих моделей, это выглядело как принципиальная позиция одной из самых влиятельных AI-компаний мира. Теперь выясняется, что Пентагон нашёл элегантный обходной путь задолго до того, как компания официально пересмотрела свои правила.

По информации источников издания Wired, Министерство обороны США проводило эксперименты с технологиями OpenAI, получая доступ к ним не напрямую, а через облачную платформу Microsoft Azure. Схема была проста и при этом формально безупречна: Microsoft, вложившая в OpenAI миллиарды долларов, имеет лицензионное право на использование моделей компании в собственных продуктах и сервисах. Azure предоставляет корпоративным и государственным клиентам доступ к этим моделям в рамках своей облачной экосистемы. Пентагон — давний и крупный клиент Microsoft. Все звенья цепочки на месте, и ни одно из них формально не нарушает букву запрета OpenAI, который распространялся на прямое использование её сервисов в военных целях.

Контекст этой истории уходит корнями в фундаментальное противоречие, заложенное в саму бизнес-модель OpenAI. Компания, основанная в 2015 году как некоммерческая исследовательская лаборатория с миссией обеспечить безопасное развитие искусственного интеллекта на благо человечества, постепенно трансформировалась в коммерческого гиганта. Партнёрство с Microsoft, начавшееся с инвестиции в один миллиард долларов в 2019 году и выросшее до многомиллиардного стратегического альянса, стало двигателем этой трансформации. Но оно же создало структурную лазейку: передавая лицензии на свои модели Microsoft, OpenAI фактически теряла полный контроль над тем, кому и как эти модели предоставляются дальше.

Технически Пентагон мог использовать модели OpenAI через Azure для широкого спектра задач — от обработки разведывательных данных и анализа документов до планирования логистических операций и моделирования сценариев. Военное ведомство США давно проявляло интерес к большим языковым моделям как инструменту повышения эффективности командных структур. И хотя точный характер экспериментов не раскрывается, сам факт их проведения в обход публичной политики OpenAI говорит о многом.

В январе 2024 года OpenAI тихо изменила свою политику допустимого использования, убрав из неё явный запрет на военное и оборонное применение. Компания объяснила это решение необходимостью более нюансированного подхода, подчеркнув, что запрет на использование для причинения вреда людям остаётся в силе. Критики, однако, увидели в этом легализацию уже существующей практики — своего рода признание реальности, в которой этические ограничения оказались слабее коммерческих интересов и государственного давления.

Эта история обнажает системную проблему, которая выходит далеко за рамки одной компании. Современная AI-индустрия построена на сложных партнёрских и лицензионных отношениях, где технологии одного разработчика встраиваются в продукты и платформы десятков других компаний. В такой экосистеме этические политики отдельного разработчика превращаются в декларации о намерениях, а не в реальные ограничения. Если модель доступна через API партнёра, запрет на определённые виды использования становится вопросом доверия, а не технического контроля. Microsoft, со своей стороны, имеет многолетнюю историю сотрудничества с Пентагоном и никогда не разделяла пацифистскую риторику ранней OpenAI — контракт JEDI и его преемник JWCC на десятки миллиардов долларов тому подтверждение.

Для всей индустрии искусственного интеллекта урок прозрачен и неутешителен. Этические рамки, не подкреплённые техническими механизмами контроля и юридически обязывающими соглашениями с партнёрами, остаются благими пожеланиями. Пока AI-компании выстраивают свои экосистемы через лицензирование и облачные платформы, реальный контроль над конечным использованием технологий будет неизбежно размываться. А вопрос о том, должны ли самые мощные AI-системы мира работать на военные ведомства, из области корпоративной этики окончательно переходит в область геополитики, где ответы определяются не миссиями стартапов, а логикой великодержавной конкуренции.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…