Wired→ оригинал

Anthropic Refutes Pentagon Allegations of Potential AI Tool Sabotage During Wartime

The Pentagon alleged that Anthropic could theoretically manipulate its AI models during wartime—for example, altering Claude's behavior mid-operation. The compa

Anthropic Refutes Pentagon Allegations of Potential AI Tool Sabotage During Wartime
Источник: Wired. Коллаж: Hamidun News.

Anthropic отрицает, что компания способна вмешаться в работу своих ИИ-инструментов в разгар военного конфликта. Поводом для заявления стали претензии Министерства обороны США, которое предположило: разработчик Claude теоретически может манипулировать поведением моделей даже после их развёртывания в боевых условиях. Руководители компании настаивают — это технически невозможно.

Спор стал публичным на фоне растущего интереса американского военного ведомства к коммерческим ИИ-системам. В последние два года Пентагон активно тестирует большие языковые модели в задачах логистики, анализа разведывательных данных и планирования операций. Anthropic входит в число поставщиков, с которыми Министерство обороны ведёт переговоры или уже сотрудничает по ряду программ.

Претензия Пентагона касается потенциального вектора уязвимости: если разработчик сохраняет возможность дистанционно изменять или отключать модель, это создаёт риск зависимости от частной компании в критически важных ситуациях. Военные ведомства по всему миру традиционно стремятся к суверенитету над своими системами — особенно в условиях активных боевых действий, когда надёжность инфраструктуры становится вопросом жизни и смерти. Anthropic парирует: архитектура развёртывания Claude не позволяет компании вмешиваться в работу уже запущенных инстансов без ведома заказчика.

Руководители компании подчёркивают, что модель, развёрнутая в изолированной среде военного ведомства, функционирует независимо от серверов Anthropic. Возможность «удалённого отключения» или скрытого изменения поведения они называют технически несостоятельным сценарием при корректной имплементации. Тем не менее вопрос остаётся дискуссионным.

Эксперты по кибербезопасности давно обращают внимание на то, что коммерческие ИИ-модели обновляются через механизмы fine-tuning и RLHF, которые при определённых условиях могут влиять на поведение системы незаметно для конечного пользователя. Военные заказчики, в отличие от корпоративных, требуют гарантий неизменности модели на весь срок контракта — требование, которое коммерческие поставщики пока не умеют удовлетворить стандартными инструментами. Ситуация отражает более широкое противоречие: правительства хотят использовать передовые коммерческие ИИ-системы, но не готовы мириться с зависимостью от их создателей.

Open-source модели — Llama, Mistral и другие — в этом контексте выглядят привлекательнее: их можно развернуть локально и зафиксировать версию. Однако по качеству они пока уступают проприетарным аналогам в задачах, требующих сложного рассуждения. Для Anthropic конфликт с Пентагоном — репутационная нагрузка в момент, когда компания активно позиционирует себя как ответственного разработчика ИИ.

Любые сомнения в надёжности и предсказуемости Claude способны затормозить переговоры с государственными заказчиками — сегментом, который в ближайшие годы может стать одним из крупнейших рынков сбыта для больших языковых моделей.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…