Pentágono busca substituição da Anthropic após conflito sobre restrições militares do Claude
Pentágono começou a procurar substituição da Anthropic após a empresa recusar remover restrições sobre uso militar do Claude. A disputa se concentrou em duas pr

Пентагон начал готовить замену инструментам Anthropic после резкого конфликта вокруг того, как армия США может использовать коммерческие AI-модели. Компания отказалась снимать часть ограничений с Claude, а администрация Дональда Трампа в ответ признала её «риском для цепочки поставок».
Почему произошёл разрыв Суть спора не в качестве модели и не в цене контракта.
Разногласие возникло вокруг того, кто в итоге определяет правила применения AI в военной системе. По словам высокопоставленного чиновника Минобороны США, Пентагон настаивал на праве использовать технологию «для любых законных целей». Anthropic, наоборот, хотела закрепить в соглашении два жёстких ограничения: запрет на массовую слежку за американцами и запрет на полностью автономное оружие без участия человека.
Этот конфликт быстро вышел за рамки обычных переговоров с подрядчиком. После того как стороны не договорились, администрация США присвоила Anthropic статус supply-chain risk — метку, которую обычно используют в контексте угроз для государственных закупок и критической инфраструктуры. Для компании это не просто репутационный удар: такой статус может осложнить работу с военными подрядчиками и федеральными структурами, даже если речь идёт не о прямом контракте с Пентагоном.
Спор о guardrails за несколько дней превратился в спор о доступе к государственному рынку.
Как
Пентагон ищет замену Военные не стали ждать, чем закончится спор, и начали строить резервный план. По словам представителя Пентагона, ведомство уже ведёт инженерные работы по внедрению нескольких больших языковых моделей в контролируемые государством контуры. Идея в том, чтобы не зависеть от одного поставщика и как можно быстрее получить альтернативы для оперативного использования.
Речь идёт не о долгосрочном исследовании, а о подготовке рабочих решений, которые можно довольно быстро встроить в чувствительные процессы. Судя по заявлениям ведомства, Пентагон хочет заменить не только конкретный продукт, но и саму модель зависимости от одного AI-партнёра. Это означает более широкий стек поставщиков, более жёсткий контроль над средой развёртывания и ускоренный переход на совместимые решения, если отношения с отдельным вендором заходят в тупик.
перенос AI-инструментов в государственные среды, а не только в инфраструктуру вендора подключение нескольких LLM вместо зависимости от одной модели быстрый вывод альтернатив в эксплуатацию для чувствительных сценариев снижение роли Anthropic в существующих военных workflow На этом фоне особенно показательно, что рынок быстро заполняет вакуум. OpenAI уже договорилась с Пентагоном о работе своих моделей в закрытых средах, а само военное ведомство демонстрирует, что готово расширять круг поставщиков, если один из них пытается жёстко прописать границы допустимого использования. Для государства это вопрос операционной устойчивости.
Для AI-компаний — сигнал, что оборонные контракты всё чаще будут требовать не только технологий, но и готовности принимать условия заказчика.
Позиция
Anthropic Anthropic не смягчила тон даже после санкции со стороны Пентагона и дала понять, что считает действия властей юридически сомнительными. Глава компании Дарио Амодеи заявил, что у Anthropic «нет иного выбора», кроме как оспаривать решение в суде. Для компании это принципиальная история: она пытается отстоять право поставщика AI не соглашаться на сценарии, которые считает опасными даже в рамках формально законного применения. То есть спор идёт не только о контракте, но и о праве бизнеса удерживать собственные красные линии.
«Мы не считаем это решение юридически обоснованным и не видим иного выбора, кроме как оспорить его в суде».
Позиция Пентагона прямо противоположная. Ведомство считает, что поставщик не может вставать между армией и законным использованием критически важной технологии. Поэтому нынешний спор выглядит как ранний тест на будущий баланс сил: смогут ли крупные AI-компании навязывать собственные guardrails государству, или государство будет добиваться принятия своих правил целиком. И именно поэтому конфликт вокруг одной модели внезапно превратился в прецедент для всей оборонной AI-индустрии.
Что это значит
История с Anthropic показывает, что главный спор вокруг военного AI сейчас идёт не о том, какая модель умнее, а о том, кто контролирует пределы её применения. Если Пентагон действительно быстро заменит Claude альтернативами, для всего рынка это станет жёстким сигналом: отказ снимать ограничения может стоить доступа к крупнейшим государственным заказам. Одновременно это подталкивает AI-компании заранее решать, где для них проходит граница между безопасностью, политикой и выручкой.