Guardian→ оригинал

Anthropic Sues Pentagon Over Claude Ban for U.S. Military and Contractors

Anthropic filed suit against the Pentagon in federal court, demanding to temporarily suspend the ban on Claude use by the U.S. military and contractors. The con

Anthropic Sues Pentagon Over Claude Ban for U.S. Military and Contractors
Источник: Guardian. Коллаж: Hamidun News.

Anthropic вышла в федеральный суд против Пентагона, пытаясь остановить запрет на использование Claude американскими военными и оборонными подрядчиками. Спор стал публичной точкой столкновения между коммерческой AI-компанией и государством, которое хочет шире применять модели в чувствительных силовых сценариях.

Как начался конфликт

Разбирательство прошло во вторник в окружном суде Северной Калифорнии под председательством судьи Риты Лин. Anthropic просит временно заморозить решение министерства обороны США, которое запретило армии и подрядчикам использовать технологии компании. По сути, речь идет не о финальном решении по делу, а о первой попытке быстро остановить последствия запрета, пока основной иск рассматривается по существу.

Для Anthropic это критично, потому что ограничения уже сейчас влияют на доступ к госзаказам и оборонным контрактам. Конфликт обострился после того, как Anthropic отказалась разрешать использование Claude для двух категорий задач: внутренней массовой слежки и полностью автономных летальных систем. После этого администрация Дональда Трампа, по данным иска, распорядилась прекратить использование инструментов Anthropic не только в военной сфере, но и в других федеральных агентствах.

Компания утверждает, что таким образом государство наказало ее не за технические риски продукта, а за отказ снять собственные этические ограничения на применение модели.

Что требует

Anthropic Иск направлен против решения, принятого после того, как глава Пентагона Пит Хегсет объявил Anthropic «риском для цепочки поставок». Компания считает эту формулировку необоснованной и юридически уязвимой. В суде она добивается временного запрета на применение этого статуса, чтобы военные структуры и подрядчики не были вынуждены немедленно отказаться от Claude еще до полноценного разбирательства по делу.

Компания настаивает, что такой статус был присвоен без прозрачного объяснения, а его последствия запускаются немедленно: доступ к закупкам и пилотам может исчезнуть еще до решения суда по существу. приостановить действие запрета для военных и подрядчиков оспорить статус «риска для цепочки поставок» сократить прямые потери по контрактам и выручке защитить право ограничивать опасные сценарии использования своих моделей Anthropic предупреждает, что без оперативного вмешательства суда ущерб может составить сотни миллионов долларов и ударить по репутации компании как поставщика для госструктур. Для разработчика это также вопрос прецедента: если государство сможет давить на AI-компании через закупочные и оборонные механизмы, любые публично заявленные ограничения на применение моделей могут быстро превратиться из политики безопасности в коммерческий риск.

По ее логике, это ударит не только по текущим сделкам, но и по будущим переговорам с ведомствами, которые обычно избегают спорных поставщиков.

Почему спор важен Это дело важно далеко за пределами одного контракта.

До сих пор многие AI-компании пытались совмещать две линии: продавать технологии государству и одновременно проводить красные линии для сценариев, которые считают неприемлемыми. История с Anthropic показывает, насколько хрупким может быть такой баланс, когда заказчик — крупнейший в мире оборонный аппарат. Если суд не поддержит компанию хотя бы временно, это станет сигналом для всего рынка: отказ от военного или надзорного применения может стоить доступа к государственным деньгам.

С другой стороны, спор поднимает и более широкий вопрос о том, кто в итоге определяет пределы использования универсальных моделей — их разработчик или государство, оплачивающее внедрение. Для Вашингтона это вопрос национальной безопасности и контроля над поставщиками. Для индустрии — тест на то, можно ли всерьез говорить об «ответственном AI», если за отказ участвовать в автономном оружии следует фактическое вытеснение из крупнейших государственных программ.

Что это значит

Судебная схватка Anthropic и Пентагона превращает этические ограничения AI из PR-обещаний в юридический спор с огромными ставками. От исхода этой истории будет зависеть, смогут ли разработчики моделей реально запрещать самые опасные сценарии использования или государственный заказчик в итоге будет диктовать правила сильнее любых внутренних принципов. Если временную защиту не дадут, давление на поставщиков безопасных ограничений только усилится и станет предупреждением для других разработчиков.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…