MIT Technology Review→ оригинал

Pentágono pode usar chatbots de AI para priorizar alvos em ataques militares

O Pentágono considera usar AI generativa para classificar alvos militares e recomendar a ordem dos ataques. Segundo a descrição de um funcionário, o sistema ope

Pentágono pode usar chatbots de AI para priorizar alvos em ataques militares
Источник: MIT Technology Review. Коллаж: Hamidun News.

Пентагон впервые достаточно прямо описал сценарий, в котором генеративный ИИ помогает военным не просто искать данные, а расставлять приоритеты в списке целей. Формально финальное решение остается за человеком, но сам факт, что чатботы подводят все ближе к очередности ударов, резко поднимает ставки в споре о военном применении ИИ.

Как это может работать

По словам чиновника Минобороны США, знакомого с вопросом, военные могут загружать список потенциальных целей в генеративную систему, работающую в закрытом секретном контуре. Дальше оператор просит модель проанализировать вводные и выдать рекомендации: какие объекты важнее, какие можно отложить и по каким целям логичнее наносить удар в первую очередь. При этом учитываются не только сами цели, но и операционные факторы вроде расположения самолетов и общей боевой обстановки.

Важно, что чиновник описал это как возможный рабочий сценарий, но не подтвердил и не опроверг, используется ли именно такая схема уже сейчас в реальных операциях. Это оставляет ключевой вопрос без ответа: где именно сегодня проходит граница между аналитической подсказкой и влиянием ИИ на решение о применении силы. На словах человек остается последним фильтром, но в условиях войны значение имеет не только право последнего клика, но и то, кто задает порядок действий.

На какой инфраструктуре Почва для такого подхода у Пентагона уже есть.

С 2017 года американские военные используют Project Maven — систему, которая помогает анализировать большие массивы разведданных, в том числе видео с дронов и спутниковые материалы, чтобы быстрее находить потенциальные цели. Изначально речь шла прежде всего о компьютерном зрении: машина помогает заметить объект, который оператор потом проверяет вручную. Теперь поверх этого стека может появляться разговорный слой в духе ChatGPT, Claude или Grok.

Разница принципиальная: раньше ИИ в основном находил и помечал объекты, а теперь он может еще и объяснять, сравнивать, ранжировать и рекомендовать дальнейшие шаги на естественном языке. Теоретически это ускоряет работу штабов и аналитиков, особенно когда речь идет о большом потоке данных и коротком окне для реакции. В таком контуре модель может: собирать и кратко пересказывать разведданные по нескольким целям ранжировать список объектов по приоритету удара учитывать контекст вроде расположения авиации и доступности ресурсов предлагать, по какой цели логичнее действовать первой * отдавать рекомендации людям, которые затем должны их проверить Отдельно важно, что OpenAI и xAI уже заключали соглашения, позволяющие использовать их модели в закрытых средах Минобороны США.

Это не доказывает, что именно их системы уже участвуют в боевом таргетинге, но показывает, насколько быстро складывается техническая и контрактная база для таких сценариев. Параллельно другие публикации связывали военные платформы и с Claude, хотя конкретная роль генеративных моделей в отдельных операциях публично не подтверждена.

Почему спор обострился

Раскрытие этого подхода произошло в момент, когда Пентагон уже находится под давлением из-за удара по школе для девочек в иранском Минабе. По сопутствующим публикациям, в результате погибли более 100 детей, а предварительная проверка указала на проблему с устаревшими данными при наведении. На этом фоне любые заявления о том, что ИИ всего лишь помогает людям, звучат уже не как успокоение, а как приглашение к более жестким вопросам.

Главный из них простой: насколько реальна человеческая проверка, если система выдает убедительные ответы за секунды, а времени на перепроверку мало. Если оператору нужно почти столько же времени, чтобы независимо перепроверить рекомендации модели, то выигрыш в скорости сужается. Если же люди начинают доверять системе по умолчанию, риск ошибки становится системным.

Для военных решений это особенно опасно, потому что цена галлюцинации или неверного ранжирования измеряется не баг-репортом, а жизнями.

Что это значит

Генеративный ИИ входит не только в офисные процессы, но и в самую чувствительную часть военной машины — подготовку решений о применении силы. Даже если человек формально остается «в контуре», реальный вопрос теперь в другом: может ли этот человек действительно проверить совет модели, прежде чем он превратится в удар.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…