The Verge→ оригинал

قاضية تؤيد Anthropic وتجمّد مؤقتًا حظر البنتاغون على العمل مع الشركة

انحازت القاضية ريتا لين إلى Anthropic: إذ أصدرت محكمة اتحادية أمرًا قضائيًا أوليًا ضد البنتاغون، ما علّق مؤقتًا إدراج الشركة على القائمة السوداء. وأقرت وزارة ال

قاضية تؤيد Anthropic وتجمّد مؤقتًا حظر البنتاغون على العمل مع الشركة
Источник: The Verge. Коллаж: Hamidun News.

Федеральный суд временно заблокировал запрет Пентагона на сотрудничество с Anthropic. Судья районного суда Северного округа Калифорнии Рита Ф. Лин удовлетворила ходатайство компании о предварительном судебном запрете — это означает, что решение Министерства обороны США, внёсшего разработчика Claude в чёрный список, приостанавливается на весь период судебного разбирательства.

Решение вступит в силу через семь дней. Конфликт длился несколько недель. Министерство обороны США (официально переименованное в Министерство войны) присвоило Anthropic статус «риска цепочки поставок» — юридический механизм, который фактически закрывает компании доступ ко всем федеральным контрактам.

Подобный статус обычно применяется к поставщикам с иностранными связями или серьёзными нарушениями в сфере информационной безопасности. Случай Anthropic оказался принципиально иным. Согласно собственным документам Министерства обороны, Anthropic была признана «риском» из-за «враждебной манеры поведения в прессе».

Речь идёт о том, что компания публично критиковала позицию военных по условиям государственных контрактов — в том числе их подход к применению AI в летальных автономных системах и инструментах массовой слежки. Именно за это публичное инакомыслие компания и оказалась в чёрном списке. Судья Лин в тексте постановления назвала подобные действия классическим нарушением Первой поправки к Конституции США.

«Наказывать Anthropic за привлечение публичного внимания к позиции правительства в вопросах контрактов — это классическое незаконное ограничение свободы слова», — написала она. Суд констатировал: государство использовало контрактный механизм как инструмент подавления неудобных публичных высказываний, что прямо противоречит конституционным гарантиям. Anthropic — один из ведущих разработчиков AI в мире, создатель семейства моделей Claude.

Компания основана бывшими сотрудниками OpenAI и позиционирует себя как организацию, ставящую безопасность AI во главу угла. На протяжении нескольких лет Anthropic публично высказывалась об этических ограничениях применения своих моделей в военных и государственных целях. Этот курс принёс компании репутацию одного из наиболее ответственных разработчиков в отрасли, но одновременно создал трения с военным ведомством.

Предварительный судебный запрет — значимая, но промежуточная победа. Полноценное разбирательство продолжится, и финальное решение может быть иным. Суды выдают предварительные запреты лишь тогда, когда усматривают реальные основания для иска: то, что суд встал на сторону Anthropic уже на этой стадии, говорит о серьёзности конституционных аргументов.

Для всей AI-индустрии этот кейс задаёт важный прецедент. Технологическая компания открыто противостоит военному ведомству в суде — и выигрывает первый раунд. В момент, когда правительства по всему миру формируют правила работы с AI-поставщиками, способность защищать право на публичную критику через суд становится стратегически важным инструментом.

Независимо от финального исхода, этот эпизод уже вошёл в историю AI-регулирования.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…