The Verge→ оригинал

Jueza respalda a Anthropic y bloquea temporalmente la prohibición del Pentágono de trabajar con la empresa

La jueza Rita Lin falló a favor de Anthropic: un tribunal federal dictó una medida cautelar preliminar contra el Pentágono y suspendió temporalmente la inclusió

Jueza respalda a Anthropic y bloquea temporalmente la prohibición del Pentágono de trabajar con la empresa
Источник: The Verge. Коллаж: Hamidun News.

Федеральный суд временно заблокировал запрет Пентагона на сотрудничество с Anthropic. Судья районного суда Северного округа Калифорнии Рита Ф. Лин удовлетворила ходатайство компании о предварительном судебном запрете — это означает, что решение Министерства обороны США, внёсшего разработчика Claude в чёрный список, приостанавливается на весь период судебного разбирательства.

Решение вступит в силу через семь дней. Конфликт длился несколько недель. Министерство обороны США (официально переименованное в Министерство войны) присвоило Anthropic статус «риска цепочки поставок» — юридический механизм, который фактически закрывает компании доступ ко всем федеральным контрактам.

Подобный статус обычно применяется к поставщикам с иностранными связями или серьёзными нарушениями в сфере информационной безопасности. Случай Anthropic оказался принципиально иным. Согласно собственным документам Министерства обороны, Anthropic была признана «риском» из-за «враждебной манеры поведения в прессе».

Речь идёт о том, что компания публично критиковала позицию военных по условиям государственных контрактов — в том числе их подход к применению AI в летальных автономных системах и инструментах массовой слежки. Именно за это публичное инакомыслие компания и оказалась в чёрном списке. Судья Лин в тексте постановления назвала подобные действия классическим нарушением Первой поправки к Конституции США.

«Наказывать Anthropic за привлечение публичного внимания к позиции правительства в вопросах контрактов — это классическое незаконное ограничение свободы слова», — написала она. Суд констатировал: государство использовало контрактный механизм как инструмент подавления неудобных публичных высказываний, что прямо противоречит конституционным гарантиям. Anthropic — один из ведущих разработчиков AI в мире, создатель семейства моделей Claude.

Компания основана бывшими сотрудниками OpenAI и позиционирует себя как организацию, ставящую безопасность AI во главу угла. На протяжении нескольких лет Anthropic публично высказывалась об этических ограничениях применения своих моделей в военных и государственных целях. Этот курс принёс компании репутацию одного из наиболее ответственных разработчиков в отрасли, но одновременно создал трения с военным ведомством.

Предварительный судебный запрет — значимая, но промежуточная победа. Полноценное разбирательство продолжится, и финальное решение может быть иным. Суды выдают предварительные запреты лишь тогда, когда усматривают реальные основания для иска: то, что суд встал на сторону Anthropic уже на этой стадии, говорит о серьёзности конституционных аргументов.

Для всей AI-индустрии этот кейс задаёт важный прецедент. Технологическая компания открыто противостоит военному ведомству в суде — и выигрывает первый раунд. В момент, когда правительства по всему миру формируют правила работы с AI-поставщиками, способность защищать право на публичную критику через суд становится стратегически важным инструментом.

Независимо от финального исхода, этот эпизод уже вошёл в историю AI-регулирования.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…