Суд в США временно поддержал Anthropic в споре с Пентагоном из-за ограничений Claude
Суд в США временно поддержал Anthropic в споре с Пентагоном. Компания отказалась разрешить использование Claude в полностью автономном оружии и массовой слежке,

Anthropic получила промежуточную победу в споре с Пентагоном: федеральный суд в Калифорнии временно остановил меры, которыми власти США пытались ограничить работу компании с государством. Речь идет не о финальном решении по делу, а о судебной паузе, которая позволяет Anthropic оспаривать действия администрации без немедленного ущерба для бизнеса.
Почему суд вмешался
Судья Рита Лин выдала временный судебный запрет, пока окружной суд Северного округа Калифорнии рассматривает иск по существу. Одновременно она отложила вступление решения в силу на неделю, чтобы у правительства оставалось время на апелляционные шаги. Для Anthropic это первый явный успех в публичном конфликте, который за несколько недель вырос из спора о контрактных условиях в политический и юридический кейс федерального уровня.
По версии компании, Пентагон и администрация Дональда Трампа вышли далеко за рамки обычного права заказчика отказаться от поставщика. Anthropic утверждает, что власти не просто прекратили сотрудничество, а попытались наказать ее за публичную позицию по безопасности ИИ. В иске компания ссылается на нарушение первой поправки, поскольку спор касается высказываний о теме общественного значения: допустимо ли использовать генеративные модели для автономного оружия и массовой слежки.
Из-за чего конфликт Корень конфликта — в красных линиях Anthropic для Claude.
Компания отказалась разрешать использование модели в полностью автономных летальных системах, где финальное решение о поражении цели принимает машина без участия человека. Второе ограничение касается массового наблюдения за гражданами внутри страны. Пентагон, напротив, настаивал на формулировке, которая позволяла бы применять модель для всех законных целей, не оглядываясь на дополнительные корпоративные запреты. После провала переговоров спор резко обострился. Власти обозначили Anthropic как риск для цепочки поставок, а затем потребовали прекратить использование ее технологий в государственных структурах. Судя по материалам дела, компания считает такие шаги не мерой безопасности, а способом давления, который должен был заставить ее смягчить собственные правила.
- Anthropic отказалась снимать ограничения на автономное оружие Компания не согласилась открыть Claude для массовой внутренней слежки Администрация потребовала прекратить использование технологий Anthropic в госорганах Пентагон присвоил компании статус риска для цепочки поставок Anthropic заявила, что это грозит ей многомиллионным ущербом и подрывом репутации ## Что увидела судья В предварительном решении судья Рита Лин фактически согласилась с главным тезисом Anthropic: государство, вероятно, пошло дальше, чем позволяет закон. В материалах суда говорится, что обозначение компании как риска для цепочки поставок могло быть произвольным и плохо обоснованным. Отдельно Лин указала, что у властей был более простой путь: если Минобороны не устраивают условия использования Claude, оно может просто перестать покупать этот продукт и перейти к другому поставщику.
«Это похоже на попытку парализовать Anthropic».
Именно этот момент стал для суда одним из ключевых. Если у государства была цель защитить свои операционные интересы, ему не обязательно было вводить настолько широкие ограничения. Суд также отметил, что публичная критика позиции правительства и обсуждение рисков ИИ подпадают под защиту свободы слова. Иными словами, дело сейчас выглядит не как обычный спор о закупке, а как возможная ответная мера против компании за ее позицию. При этом решение не заставляет Пентагон пользоваться Claude и не запрещает ведомству искать другого подрядчика. Запрет касается более широких карательных мер: черного списка, статуса угрозы для поставок и указаний, которые фактически отрезают компанию от работы с государством еще до итогового рассмотрения иска.
Что это значит Этот спор задает важный прецедент для всего рынка AI-моделей.
Суд показал, что даже в сфере национальной безопасности государству будет сложно принуждать разработчиков к снятию базовых ограничений через давление на контракты и репутацию. Для Anthropic это пока не победа в деле, но сильный сигнал: право компаний проводить собственные красные линии в использовании ИИ суд готов рассматривать всерьез.