Juez califica de señal preocupante el intento del Pentágono de "socavar" a Anthropic
Un juez de distrito cuestionó la decisión del Pentágono de incluir a Anthropic — creadora del asistente de AI Claude — en una lista de riesgos de la cadena de s

Федеральный суд поставил под сомнение решение Пентагона, которое могло фактически подорвать бизнес Anthropic — одной из ведущих AI-компаний США и разработчика языковой модели Claude. На слушании во вторник окружной судья выразил серьёзную обеспокоенность мотивами Министерства обороны, внёсшего Anthropic в список компаний, представляющих риски для цепочки поставок. По словам судьи, такой шаг выглядит как «попытка подорвать» компанию, а не как взвешенное решение, основанное на конкретных угрозах национальной безопасности.
Представители DoD на слушании так и не смогли внятно объяснить логику своих действий. Включение в список рисков цепочки поставок — крайне серьёзная мера для любой технологической компании. Она фактически закрывает двери к государственным контрактам, отпугивает институциональных инвесторов и вынуждает корпоративных партнёров пересматривать условия сотрудничества.
Для Anthropic, активно работающей с крупными американскими организациями и предлагающей Claude как инструмент корпоративного уровня, подобная классификация грозила обернуться катастрофой. Anthropicбыла основана в 2021 году Дарио Амодеи, Даниэлой Амодеи и другими выходцами из OpenAI. Компания позиционирует себя как сторонника «конституционного ИИ» — подхода, при котором модели обучают следовать явно прописанным принципам безопасности.
За последние годы Anthropic привлекла миллиарды долларов инвестиций от Amazon и Google, а её рыночная оценка превышает 60 млрд долларов. Claude используется в медицине, праве, финансах и образовании по всему миру. Большинство компаний, попадающих под ограничения цепочки поставок, имеют задокументированные связи с военно-промышленным комплексом Китая или других государств, которые Вашингтон считает стратегической угрозой.
Anthropic к этой категории явно не относится — она является американской компанией без каких-либо подобных связей. Именно это противоречие, по всей видимости, и насторожило суд. Дело разворачивается на фоне острой дискуссии о границах государственного регулирования AI-отрасли.
США стремятся не допустить передачи ключевых технологий геополитическим противникам — цель, которую разделяет весь политический спектр. Однако инструменты, задуманные для ограничения иностранных игроков, в данном случае оказались направлены против флагмана американской AI-индустрии. Критики давно предупреждали: широкие регуляторные полномочия без чётких критериев применения могут использоваться произвольно.
Для всей AI-отрасли исход этого дела будет иметь прецедентное значение. Если суд встанет на сторону Anthropic, это ограничит возможность Пентагона применять механизмы контроля цепочки поставок против американских разработчиков без конкретных доказательств нарушений. Если же решение будет принято в пользу DoD, это откроет путь к систематическому давлению на AI-компании — с непредсказуемыми последствиями для инвестиционного климата и конкурентоспособности американских разработчиков на мировом рынке.
Слушания продолжаются.