Anthropic подала в суд на Пентагон из-за санкций
Anthropic подала два иска против Министерства обороны США, оспаривая присвоение ей статуса «риска для цепочки поставок». Компания считает это решение незаконным

Компания Anthropic, один из ведущих мировых разработчиков систем искусственного интеллекта и создатель языковой модели Claude, пошла на беспрецедентный шаг, подав два судебных иска против Министерства обороны Соединённых Штатов. Поводом послужило решение Пентагона присвоить компании статус «риска для цепочки поставок» — инструмент, который ранее никогда не применялся в отношении американской фирмы и который фактически обязывает всех правительственных подрядчиков разорвать любые деловые связи с Anthropic. Компания считает это решение незаконным и утверждает, что оно нарушает её права, гарантированные Первой поправкой к Конституции США. Иски были поданы одновременно в федеральный суд северного округа Калифорнии и в апелляционный суд округа Колумбия, что свидетельствует о серьёзности намерений компании бороться за свою позицию на всех доступных юридических фронтах.
Корни конфликта уходят в многомесячное противостояние между Anthropic и военным ведомством, которое разгорелось вокруг принципиального вопроса: должны ли разработчики искусственного интеллекта иметь право устанавливать ограничения на использование своих технологий в военных целях? Anthropic последовательно пыталась внедрить защитные механизмы, которые не позволяли бы использовать её модели для массовой слежки за гражданами внутри страны, а также для создания полностью автономных систем летального оружия. Эта позиция, вполне укладывающаяся в рамки корпоративной этики и широко обсуждаемых принципов ответственного развития ИИ, встретила жёсткое сопротивление со стороны Пентагона, который расценил подобные ограничения как неприемлемое вмешательство в интересы национальной безопасности.
Решение о присвоении статуса «риска для цепочки поставок» было официально оформлено в прошлый четверг и стало, по сути, формой чёрного списка. Этот механизм был создан для защиты государственных закупок от ненадёжных поставщиков, однако до сих пор применялся исключительно в отношении иностранных компаний, как правило, связанных с государствами-соперниками. Использование его против американской фирмы, причём не за какие-либо технические недостатки или нарушения безопасности, а фактически за попытку придерживаться этических стандартов, создаёт тревожный прецедент. Anthropic справедливо указывает на то, что подобные действия носят карательный характер и представляют собой наказание компании за реализацию её конституционного права на свободу слова и выражение своей позиции по вопросам использования технологий.
Последствия этого противостояния выходят далеко за рамки судьбы одной компании. Если решение Пентагона устоит в суде, любой разработчик ИИ, пожелавший установить этические ограничения на применение своих продуктов, рискует оказаться в аналогичной ситуации. Это может привести к тому, что индустрия искусственного интеллекта разделится на два лагеря: компании, готовые безоговорочно обслуживать военные нужды без каких-либо условий, и те, кто будет вынужден полностью отказаться от работы с государственным сектором, лишившись значительной части потенциального дохода. Для Anthropic, чья бизнес-модель во многом опирается на корпоративных и государственных клиентов, требование разорвать все связи с правительственными подрядчиками представляет серьёзную экономическую угрозу. Фактически Пентагон использует рыночное давление как рычаг принуждения, ставя компанию перед выбором между принципами и коммерческим выживанием.
Данный конфликт обнажает глубинное противоречие, которое неизбежно должно было проявиться по мере того, как искусственный интеллект становится стратегической технологией. С одной стороны, западные правительства десятилетиями поощряли идею корпоративной социальной ответственности и призывали технологические компании задумываться о последствиях своих разработок. С другой стороны, когда эта ответственность приходит в столкновение с военными интересами государства, оказывается, что пространство для этического манёвра значительно уже, чем предполагалось. Позиция Anthropic в этом споре перекликается с давней дискуссией внутри Кремниевой долины, начавшейся ещё с проекта Maven в Google в 2018 году, когда тысячи сотрудников протестовали против сотрудничества компании с Пентагоном в области анализа дронов-видео.
Исход судебного разбирательства способен определить правила игры для всей индустрии на годы вперёд. Если суд встанет на сторону Anthropic, это закрепит право технологических компаний устанавливать условия использования своих продуктов даже при работе с правительством и подтвердит, что этические ограничения защищены Конституцией. Если же победит Пентагон, это станет сигналом о том, что в эпоху геополитической конкуренции за технологическое превосходство государство готово применять экстраординарные меры давления на компании, не желающие безоговорочно подчинять свои разработки военным задачам. В любом случае, дело Anthropic против Министерства обороны уже вошло в историю как первый крупный правовой конфликт, в котором вопрос этики искусственного интеллекта из теоретической плоскости перешёл в зал судебного заседания.