Anthropic в «правовом лимбо»: два суда США не могут договориться о праве армии использовать Claude
Два американских суда вынесли взаимоисключающие решения о праве военных использовать Claude — Anthropic официально предупредила о «риске цепочки поставок». Апел

Антропик оказалась в непростом юридическом положении: апелляционный суд США вынес решение, которое прямо противоречит постановлению суда низшей инстанции, принятому в марте. В центре разногласий — вопрос о том, может ли американская армия использовать модель Claude, и если да, то в каком объёме. Пока конфликт между судами не разрешён, компания фактически завязла в правовой зоне неопределённости, которую сама же описывает как «риск цепочки поставок».
Суть юридической коллизии состоит в несовпадении двух судебных актов. Суд низшей инстанции, вынесший своё постановление в марте, занял определённую позицию по вопросу о том, как и на каких условиях Anthropic вправе лицензировать свои технологии федеральным структурам. Апелляционная инстанция придерживается иной точки зрения.
Когда два суда расходятся по одному и тому же правовому вопросу, ни одна из сторон — ни разработчик, ни заказчик — не может с уверенностью опираться на соглашение, которое может быть пересмотрено следующей инстанцией. Именно в такой ситуации сейчас оказалась Anthropic. Для компании это особенно чувствительно с учётом её амбиций.
Claude занимает одну из ведущих позиций среди языковых моделей, конкурируя с GPT-4o от OpenAI и Gemini от Google. Anthropic активно продвигала свою разработку в государственный и корпоративный секторы: ключевым союзником в этом продвижении стала Amazon, вложившая в компанию миллиарды долларов и интегрировавшая Claude в облачную платформу AWS. Любая правовая тень на возможность работы с военными клиентами напрямую бьёт по выручке и переговорным позициям.
Оценка Anthropic исчисляется десятками миллиардов долларов — и значительная часть этой цифры обоснована именно перспективами роста в госсекторе. Термин «supply-chain risk», который использует сам Anthropic, указывает на более широкую проблему, чем кажется на первый взгляд. В мире программного обеспечения и ИИ «цепочка поставок» — это сложная структура зависимостей: базовая модель, API, облачный провайдер, партнёрские интеграции, конечные приложения.
Если правовой статус самой базовой модели находится под вопросом, нестабильность распространяется по всей цепочке — от стартапов-интеграторов до крупных оборонных подрядчиков, которые уже встроили Claude в свои рабочие процессы. За последние два года американские военные и спецслужбы прошли путь от осторожных экспериментов с ИИ до полноценного внедрения языковых моделей в разведывательные операции, логистику и стратегическое планирование. Конкуренция за оборонные AI-контракты ведётся между крупнейшими игроками рынка — Microsoft, Google, Oracle, Palantir.
Anthropic, позиционирующая себя как компанию с акцентом на безопасный и предсказуемый ИИ, казалась особенно привлекательным партнёром для структур, которые не могут позволить себе непредсказуемых систем. Теперь у военных заказчиков появляется юридическое основание взять паузу и переосмыслить степень своей зависимости от Claude. Конфликт между судами обычно разрешается через вышестоящую инстанцию — либо путём передачи дела в Верховный суд, либо через формирование нового прецедента в апелляционном округе.
До этого момента Anthropic вынуждена работать в режиме неопределённости: заключать контракты, понимая, что их правовая база может быть пересмотрена. Для всей индустрии эта ситуация — показательный тест-кейс. OpenAI, Google и другие претенденты на государственные AI-контракты следят за развитием событий: правовая рамка, которую в итоге выработают суды, либо откроет двери для широкого внедрения ИИ в оборонный сектор, либо создаст ограничения, с которыми придётся считаться всей отрасли.