Bloomberg Tech→ оригинал

البنتاغون يبحث عن بديل لـ Anthropic بعد نزاع حول القيود العسكرية على Claude

بدأ البنتاغون بالبحث عن بديل لـ Anthropic بعد أن رفضت الشركة رفع القيود على الاستخدام العسكري لـ Claude. تمحور النزاع حول حظرين: المراقبة الجماعية للأمريكيين وا

البنتاغون يبحث عن بديل لـ Anthropic بعد نزاع حول القيود العسكرية على Claude
Источник: Bloomberg Tech. Коллаж: Hamidun News.

Пентагон начал готовить замену инструментам Anthropic после резкого конфликта вокруг того, как армия США может использовать коммерческие AI-модели. Компания отказалась снимать часть ограничений с Claude, а администрация Дональда Трампа в ответ признала её «риском для цепочки поставок».

Почему произошёл разрыв Суть спора не в качестве модели и не в цене контракта.

Разногласие возникло вокруг того, кто в итоге определяет правила применения AI в военной системе. По словам высокопоставленного чиновника Минобороны США, Пентагон настаивал на праве использовать технологию «для любых законных целей». Anthropic, наоборот, хотела закрепить в соглашении два жёстких ограничения: запрет на массовую слежку за американцами и запрет на полностью автономное оружие без участия человека.

Этот конфликт быстро вышел за рамки обычных переговоров с подрядчиком. После того как стороны не договорились, администрация США присвоила Anthropic статус supply-chain risk — метку, которую обычно используют в контексте угроз для государственных закупок и критической инфраструктуры. Для компании это не просто репутационный удар: такой статус может осложнить работу с военными подрядчиками и федеральными структурами, даже если речь идёт не о прямом контракте с Пентагоном.

Спор о guardrails за несколько дней превратился в спор о доступе к государственному рынку.

Как

Пентагон ищет замену Военные не стали ждать, чем закончится спор, и начали строить резервный план. По словам представителя Пентагона, ведомство уже ведёт инженерные работы по внедрению нескольких больших языковых моделей в контролируемые государством контуры. Идея в том, чтобы не зависеть от одного поставщика и как можно быстрее получить альтернативы для оперативного использования.

Речь идёт не о долгосрочном исследовании, а о подготовке рабочих решений, которые можно довольно быстро встроить в чувствительные процессы. Судя по заявлениям ведомства, Пентагон хочет заменить не только конкретный продукт, но и саму модель зависимости от одного AI-партнёра. Это означает более широкий стек поставщиков, более жёсткий контроль над средой развёртывания и ускоренный переход на совместимые решения, если отношения с отдельным вендором заходят в тупик.

перенос AI-инструментов в государственные среды, а не только в инфраструктуру вендора подключение нескольких LLM вместо зависимости от одной модели быстрый вывод альтернатив в эксплуатацию для чувствительных сценариев снижение роли Anthropic в существующих военных workflow На этом фоне особенно показательно, что рынок быстро заполняет вакуум. OpenAI уже договорилась с Пентагоном о работе своих моделей в закрытых средах, а само военное ведомство демонстрирует, что готово расширять круг поставщиков, если один из них пытается жёстко прописать границы допустимого использования. Для государства это вопрос операционной устойчивости.

Для AI-компаний — сигнал, что оборонные контракты всё чаще будут требовать не только технологий, но и готовности принимать условия заказчика.

Позиция

Anthropic Anthropic не смягчила тон даже после санкции со стороны Пентагона и дала понять, что считает действия властей юридически сомнительными. Глава компании Дарио Амодеи заявил, что у Anthropic «нет иного выбора», кроме как оспаривать решение в суде. Для компании это принципиальная история: она пытается отстоять право поставщика AI не соглашаться на сценарии, которые считает опасными даже в рамках формально законного применения. То есть спор идёт не только о контракте, но и о праве бизнеса удерживать собственные красные линии.

«Мы не считаем это решение юридически обоснованным и не видим иного выбора, кроме как оспорить его в суде».

Позиция Пентагона прямо противоположная. Ведомство считает, что поставщик не может вставать между армией и законным использованием критически важной технологии. Поэтому нынешний спор выглядит как ранний тест на будущий баланс сил: смогут ли крупные AI-компании навязывать собственные guardrails государству, или государство будет добиваться принятия своих правил целиком. И именно поэтому конфликт вокруг одной модели внезапно превратился в прецедент для всей оборонной AI-индустрии.

Что это значит

История с Anthropic показывает, что главный спор вокруг военного AI сейчас идёт не о том, какая модель умнее, а о том, кто контролирует пределы её применения. Если Пентагон действительно быстро заменит Claude альтернативами, для всего рынка это станет жёстким сигналом: отказ снимать ограничения может стоить доступа к крупнейшим государственным заказам. Одновременно это подталкивает AI-компании заранее решать, где для них проходит граница между безопасностью, политикой и выручкой.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…