Wired→ оригинал

Минюст США: Anthropic незаконно ограничивала военное применение Claude

Министерство юстиции США ответило на иск Anthropic: правительство законно наказало компанию за попытку ограничить военное применение Claude в боевых системах. A

Минюст США: Anthropic незаконно ограничивала военное применение Claude
Источник: Wired. Коллаж: Hamidun News.

Министерство юстиции США заявило, что правомерно наказало Anthropic за попытку ограничить военное использование своих AI-моделей — и тем самым дало понять, что этические ограничения частных компаний не могут диктовать условия правительственным контрактам. Конфликт вышел на поверхность, когда Anthropic подала иск против американского правительства. По версии компании, власти незаконно наказали её за стремление контролировать то, как модели Claude применяются военными.

Министерство юстиции в своём ответе заняло прямо противоположную позицию: правительство действовало в рамках закона, а Anthropic пыталась в одностороннем порядке ограничить сферу применения технологий, поставляемых по государственным контрактам. Суть разногласий — в политике допустимого использования, которую Anthropic стремится соблюдать для всех клиентов без исключения. Компания открыто позиционирует себя как одного из самых ответственных разработчиков AI: её принципы безопасности запрещают применение Claude для разработки автономных систем вооружений, целеуказания и иных боевых задач без надлежащего человеческого контроля.

Эти ограничения распространяются на всех — в том числе, по мнению Anthropic, на государственные структуры. Правительство с этим категорически не согласно. По его позиции, закупая AI-технологии, оно получает право использовать их в соответствии с собственными оперативными нуждами.

Попытки Anthropic ограничить это право расцениваются не как законная реализация этических принципов, а как нарушение условий контракта. Именно это, утверждает Минюст, стало основанием для санкций против компании. Дело выходит далеко за рамки одного судебного спора.

Военный и разведывательный секторы США активно ищут партнёров среди разработчиков AI и сталкиваются с тем, что ведущие игроки отрасли имеют собственные взгляды на допустимые сценарии применения своих технологий. Microsoft, Google и Palantir уже заключили крупные контракты с Пентагоном, фактически не выдвигая аналогичных ограничений. Anthropic, судя по всему, пыталась выработать иную модель — сохранить государственный контракт, но удержать контроль над условиями использования Claude.

Позиция правительства в этом споре имеет принципиальное значение для всей индустрии. Если суд встанет на сторону Минюста, возникнет прецедент: AI-компании, работающие с госзаказом, не смогут ограничивать военное применение своих продуктов через пользовательские соглашения. Если же Anthropic выиграет — появится механизм, позволяющий разработчикам встраивать этические ограничения непосредственно в контрактные условия с государством.

На кону — не только деньги. Anthropic привлекла миллиарды долларов инвестиций во многом на тезисе о том, что безопасность является её реальным конкурентным преимуществом, а не маркетинговой декларацией. Если компания уступит в вопросе военного применения Claude без судебной борьбы, репутационные потери могут оказаться серьёзнее финансовых.

Иск в этом смысле читается как попытка закрепить принципы юридически. Этот конфликт — часть более широкой дискуссии: до какой степени AI-компании несут ответственность за конечное использование своих продуктов? Одни эксперты считают, что этические ограничения, встроенные в продукт, не могут быть обязательными для государственного клиента по определению.

Другие настаивают: именно такие механизмы позволяют сохранить минимальный уровень контроля в эпоху, когда AI-системы всё глубже встраиваются в процессы принятия военных решений.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…