MIT Technology Review→ оригинал

Pentágono y Anthropic discrepan sobre Claude en medio de planes para usar AI en la selección de objetivos

El Pentágono ve la AI generativa como una herramienta para clasificar objetivos y acelerar el análisis militar. Al mismo tiempo, mantiene un conflicto con Anthr

Pentágono y Anthropic discrepan sobre Claude en medio de planes para usar AI en la selección de objetivos
Источник: MIT Technology Review. Коллаж: Hamidun News.

Пентагон обсуждает более активную роль генеративного AI в военном контуре: такие системы могут помогать ранжировать цели и предлагать, какие из них атаковать первыми. Параллельно Минобороны США вступило в жёсткий конфликт с Anthropic, которая не хочет снимать ограничения с Claude для слежки и полностью автономного оружия.

Как это может работать

По данным MIT Technology Review, знакомый с вопросом чиновник Минобороны США описал сценарий, в котором список потенциальных целей загружается в генеративную систему, работающую в засекреченной среде. Дальше военные могут попросить модель проанализировать данные, учесть контекст вроде расположения самолётов и выдать приоритеты: что считать более срочной целью, а что можно отложить. Ключевая оговорка — финальная проверка и решение остаются за человеком. Важно, что чиновник говорил именно о возможной схеме и не подтвердил, что такой процесс уже используется в точности в таком виде. Но само описание показывает, куда движется военная инфраструктура США. Речь уже не только о распознавании объектов на видео или спутниковых снимках, а о разговорном интерфейсе поверх боевой аналитики, который может ускорять поиск данных и подготовку рекомендаций.

От Maven к чат-ботам Эта история выросла не на пустом месте.

С 2017 года американские военные используют Project Maven — систему, которая анализирует большие массивы изображений и видео, включая съёмку с дронов, и помогает выделять потенциальные цели. Раньше оператору приходилось работать через карты, панели и визуальные метки. Теперь поверх такого стека могут появляться большие языковые модели вроде Claude, ChatGPT или Grok, которые превращают поиск и сортировку данных в диалог. У такого перехода есть и плюс, и проблема. Генеративные модели удобнее для человека: можно просто спросить, какие цели выглядят наиболее приоритетными и почему. Но их ответы сложнее проверять, чем карту или таблицу с сырыми данными. На фоне ударов, где позже всплывают вопросы к исходным данным и процедурам проверки, этот сдвиг становится особенно чувствительным.

  • Project Maven уже много лет работает с компьютерным зрением и разведданными Генеративный слой добавляет диалоговый интерфейс и текстовые рекомендации В декабре 2025 года Пентагон запустил GenAI.mil для миллионов военных в небоевых и несекретных задачах * Для секретных контуров допущено пока лишь несколько моделей ## Почему спорят о Claude Самый острый конфликт возник вокруг Anthropic. По сообщениям американских СМИ, Claude мог использоваться в связке с военными системами в операциях, связанных с Ираном и Венесуэлой. После этого Пентагон потребовал более широких условий использования, а Anthropic отказалась соглашаться на размытые формулировки, которые, по версии компании, не мешали бы применять модель для массовой слежки за американцами или для полностью автономных систем оружия.
«Мы не можем с чистой совестью согласиться на это», — так Дарио Амодеи описал требования Пентагона.

Ответ Пентагона был жёстким: компанию признали риском для цепочки поставок, что может вытеснить Claude из оборонных контрактов. На этом фоне OpenAI 28 февраля 2026 года публично сообщила о соглашении с Пентагоном для работы в засекреченных средах, а xAI также получила допуск для Grok. Формально все говорят о человеческом контроле, но спор уже не о том, нужен ли AI в военной цепочке решений, а о том, кто именно задаёт ограничения и насколько они обязательны.

Что это значит

Главная новость здесь не в том, что армия хочет «чат-бота для войны», а в том, что генеративный AI становится ещё одним слоем поверх уже существующих систем наведения и анализа. Это ускоряет цикл принятия решений, но одновременно размывает границу ответственности: если модель предлагает приоритет целей, человеку всё труднее доказать, что он действительно независимо проверил рекомендацию, а не просто утвердил её.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…