MIT Technology Review→ оригинал

Le Pentagone et Anthropic s'opposent sur Claude sur fond de projets d'utiliser AI pour la sélection de cibles

Le Pentagone considère l'AI générative comme un outil pour classer les cibles et accélérer l'analyse militaire. Dans le même temps, il est en conflit avec Anthr

Le Pentagone et Anthropic s'opposent sur Claude sur fond de projets d'utiliser AI pour la sélection de cibles
Источник: MIT Technology Review. Коллаж: Hamidun News.

Пентагон обсуждает более активную роль генеративного AI в военном контуре: такие системы могут помогать ранжировать цели и предлагать, какие из них атаковать первыми. Параллельно Минобороны США вступило в жёсткий конфликт с Anthropic, которая не хочет снимать ограничения с Claude для слежки и полностью автономного оружия.

Как это может работать

По данным MIT Technology Review, знакомый с вопросом чиновник Минобороны США описал сценарий, в котором список потенциальных целей загружается в генеративную систему, работающую в засекреченной среде. Дальше военные могут попросить модель проанализировать данные, учесть контекст вроде расположения самолётов и выдать приоритеты: что считать более срочной целью, а что можно отложить. Ключевая оговорка — финальная проверка и решение остаются за человеком. Важно, что чиновник говорил именно о возможной схеме и не подтвердил, что такой процесс уже используется в точности в таком виде. Но само описание показывает, куда движется военная инфраструктура США. Речь уже не только о распознавании объектов на видео или спутниковых снимках, а о разговорном интерфейсе поверх боевой аналитики, который может ускорять поиск данных и подготовку рекомендаций.

От Maven к чат-ботам Эта история выросла не на пустом месте.

С 2017 года американские военные используют Project Maven — систему, которая анализирует большие массивы изображений и видео, включая съёмку с дронов, и помогает выделять потенциальные цели. Раньше оператору приходилось работать через карты, панели и визуальные метки. Теперь поверх такого стека могут появляться большие языковые модели вроде Claude, ChatGPT или Grok, которые превращают поиск и сортировку данных в диалог. У такого перехода есть и плюс, и проблема. Генеративные модели удобнее для человека: можно просто спросить, какие цели выглядят наиболее приоритетными и почему. Но их ответы сложнее проверять, чем карту или таблицу с сырыми данными. На фоне ударов, где позже всплывают вопросы к исходным данным и процедурам проверки, этот сдвиг становится особенно чувствительным.

  • Project Maven уже много лет работает с компьютерным зрением и разведданными Генеративный слой добавляет диалоговый интерфейс и текстовые рекомендации В декабре 2025 года Пентагон запустил GenAI.mil для миллионов военных в небоевых и несекретных задачах * Для секретных контуров допущено пока лишь несколько моделей ## Почему спорят о Claude Самый острый конфликт возник вокруг Anthropic. По сообщениям американских СМИ, Claude мог использоваться в связке с военными системами в операциях, связанных с Ираном и Венесуэлой. После этого Пентагон потребовал более широких условий использования, а Anthropic отказалась соглашаться на размытые формулировки, которые, по версии компании, не мешали бы применять модель для массовой слежки за американцами или для полностью автономных систем оружия.
«Мы не можем с чистой совестью согласиться на это», — так Дарио Амодеи описал требования Пентагона.

Ответ Пентагона был жёстким: компанию признали риском для цепочки поставок, что может вытеснить Claude из оборонных контрактов. На этом фоне OpenAI 28 февраля 2026 года публично сообщила о соглашении с Пентагоном для работы в засекреченных средах, а xAI также получила допуск для Grok. Формально все говорят о человеческом контроле, но спор уже не о том, нужен ли AI в военной цепочке решений, а о том, кто именно задаёт ограничения и насколько они обязательны.

Что это значит

Главная новость здесь не в том, что армия хочет «чат-бота для войны», а в том, что генеративный AI становится ещё одним слоем поверх уже существующих систем наведения и анализа. Это ускоряет цикл принятия решений, но одновременно размывает границу ответственности: если модель предлагает приоритет целей, человеку всё труднее доказать, что он действительно независимо проверил рекомендацию, а не просто утвердил её.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…