TechCrunch→ оригинал

Pentagon calls Anthropic a national security threat due to ethical restrictions on AI

The Pentagon has designated Anthropic as a supply chain risk due to the company's so-called "red lines." The essence: Anthropic reserves the right to disable it

Pentagon calls Anthropic a national security threat due to ethical restrictions on AI
Источник: TechCrunch. Коллаж: Hamidun News.

Министерство обороны США официально внесло Anthropic в список рисков для цепочки поставок, сославшись на опасения, что компания может отключить свои технологии прямо в ходе военных операций. Это решение стало следствием политики самой Anthropic — так называемых «красных линий», определяющих, как и когда компания вправе ограничить или прекратить работу своих ИИ-систем. Суть конфликта — в самой природе корпоративного контроля над критически важными технологиями.

Anthropic, как и многие другие ИИ-компании, сформулировала набор этических принципов, ограничивающих применение её моделей в опасных контекстах. Среди этих принципов — условия, при которых компания оставляет за собой право на принудительное отключение систем. Именно это и встревожило Пентагон.

Для военных ведомств любая зависимость от поставщика технологий, способного в одностороннем порядке прервать обслуживание, — это уязвимость. В сфере обороны критические системы должны работать бесперебойно вне зависимости от позиции вендора. Если ИИ-инструменты встраиваются в разведывательные, логистические или боевые цепочки, возможность их отключения со стороны разработчика создаёт риск, аналогичный тому, что военные называют единой точкой отказа.

Официальный представитель Министерства обороны подтвердил, что именно наличие «красных линий» стало ключевым основанием для присвоения Anthropic статуса риска. По существу, ведомство говорит следующее: компания с этическими ограничениями, допускающими отказ от сотрудничества в боевых условиях, не может считаться надёжным партнёром для нужд обороны. Anthropic известна как одна из наиболее принципиальных ИИ-компаний в вопросах безопасного развёртывания своих моделей.

Принципы ответственного масштабирования (RSP) отличают её от многих конкурентов. Компания публично заявила, что не будет помогать создавать оружие массового уничтожения и оставляет за собой право отказаться от контрактов, противоречащих этим принципам. Теперь эти же принципы привели к официальному столкновению с федеральным заказчиком.

Ситуация ставит под сомнение саму возможность для ответственных ИИ-компаний работать с оборонным сектором, не жертвуя своими этическими установками. Важен более широкий контекст. Вооружённые силы США активно интегрируют ИИ в самые разные системы — от анализа разведывательных данных и планирования логистики до поддержки принятия тактических решений.

По данным открытых источников, Anthropic уже имеет контракты с правительственными структурами США, в том числе через Amazon Web Services, использующий модели Claude в государственных облачных решениях. Это делает ситуацию особенно деликатной: компания одновременно является действующим поставщиком и официально признанным риском. Прецедент важен и для всей отрасли.

Если Министерство обороны последовательно будет отказываться от вендоров с этическими ограничениями, это создаст давление на ИИ-компании в сторону отказа от таких принципов ради доступа к крупным государственным контрактам. Альтернативный сценарий — формирование двух отдельных экосистем: военные ИИ-системы без этических ограничений и гражданские с ними. Для инвесторов и партнёров Anthropic это сигнал о том, что этические позиции компании стоят реальных денег и рыночных возможностей.

Для регуляторов и общества — острый вопрос: должны ли ИИ-компании иметь право отказывать государству, и если да — при каких условиях? Напряжение между этическим контролем разработчика и требованиями государственной безопасности только нарастает, и дело Anthropic, по всей видимости, станет не последним.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…