MIT Technology Review→ оригинал

قد يستخدم البنتاغون روبوتات دردشة AI لتحديد أولويات الأهداف في الضربات العسكرية

يدرس البنتاغون استخدام AI التوليدية لترتيب الأهداف العسكرية وتقديم توصيات بشأن ترتيب الضربات. وبحسب وصف مسؤول، يعمل النظام ضمن بيئة مغلقة: يحلل قائمة الأهداف وف

قد يستخدم البنتاغون روبوتات دردشة AI لتحديد أولويات الأهداف في الضربات العسكرية
Источник: MIT Technology Review. Коллаж: Hamidun News.

Пентагон впервые достаточно прямо описал сценарий, в котором генеративный ИИ помогает военным не просто искать данные, а расставлять приоритеты в списке целей. Формально финальное решение остается за человеком, но сам факт, что чатботы подводят все ближе к очередности ударов, резко поднимает ставки в споре о военном применении ИИ.

Как это может работать

По словам чиновника Минобороны США, знакомого с вопросом, военные могут загружать список потенциальных целей в генеративную систему, работающую в закрытом секретном контуре. Дальше оператор просит модель проанализировать вводные и выдать рекомендации: какие объекты важнее, какие можно отложить и по каким целям логичнее наносить удар в первую очередь. При этом учитываются не только сами цели, но и операционные факторы вроде расположения самолетов и общей боевой обстановки.

Важно, что чиновник описал это как возможный рабочий сценарий, но не подтвердил и не опроверг, используется ли именно такая схема уже сейчас в реальных операциях. Это оставляет ключевой вопрос без ответа: где именно сегодня проходит граница между аналитической подсказкой и влиянием ИИ на решение о применении силы. На словах человек остается последним фильтром, но в условиях войны значение имеет не только право последнего клика, но и то, кто задает порядок действий.

На какой инфраструктуре Почва для такого подхода у Пентагона уже есть.

С 2017 года американские военные используют Project Maven — систему, которая помогает анализировать большие массивы разведданных, в том числе видео с дронов и спутниковые материалы, чтобы быстрее находить потенциальные цели. Изначально речь шла прежде всего о компьютерном зрении: машина помогает заметить объект, который оператор потом проверяет вручную. Теперь поверх этого стека может появляться разговорный слой в духе ChatGPT, Claude или Grok.

Разница принципиальная: раньше ИИ в основном находил и помечал объекты, а теперь он может еще и объяснять, сравнивать, ранжировать и рекомендовать дальнейшие шаги на естественном языке. Теоретически это ускоряет работу штабов и аналитиков, особенно когда речь идет о большом потоке данных и коротком окне для реакции. В таком контуре модель может: собирать и кратко пересказывать разведданные по нескольким целям ранжировать список объектов по приоритету удара учитывать контекст вроде расположения авиации и доступности ресурсов предлагать, по какой цели логичнее действовать первой * отдавать рекомендации людям, которые затем должны их проверить Отдельно важно, что OpenAI и xAI уже заключали соглашения, позволяющие использовать их модели в закрытых средах Минобороны США.

Это не доказывает, что именно их системы уже участвуют в боевом таргетинге, но показывает, насколько быстро складывается техническая и контрактная база для таких сценариев. Параллельно другие публикации связывали военные платформы и с Claude, хотя конкретная роль генеративных моделей в отдельных операциях публично не подтверждена.

Почему спор обострился

Раскрытие этого подхода произошло в момент, когда Пентагон уже находится под давлением из-за удара по школе для девочек в иранском Минабе. По сопутствующим публикациям, в результате погибли более 100 детей, а предварительная проверка указала на проблему с устаревшими данными при наведении. На этом фоне любые заявления о том, что ИИ всего лишь помогает людям, звучат уже не как успокоение, а как приглашение к более жестким вопросам.

Главный из них простой: насколько реальна человеческая проверка, если система выдает убедительные ответы за секунды, а времени на перепроверку мало. Если оператору нужно почти столько же времени, чтобы независимо перепроверить рекомендации модели, то выигрыш в скорости сужается. Если же люди начинают доверять системе по умолчанию, риск ошибки становится системным.

Для военных решений это особенно опасно, потому что цена галлюцинации или неверного ранжирования измеряется не баг-репортом, а жизнями.

Что это значит

Генеративный ИИ входит не только в офисные процессы, но и в самую чувствительную часть военной машины — подготовку решений о применении силы. Даже если человек формально остается «в контуре», реальный вопрос теперь в другом: может ли этот человек действительно проверить совет модели, прежде чем он превратится в удар.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…