MIT Technology Review→ оригинал

Why Human Control Over Combat AI Is an Illusion, and What It Means for the Pentagon

The Anthropic-Pentagon dispute has surfaced the main risk of combat AI: humans can only formally approve strikes without understanding how the model reached its

Why Human Control Over Combat AI Is an Illusion, and What It Means for the Pentagon
Источник: MIT Technology Review. Коллаж: Hamidun News.

Идея о том, что боевой ИИ можно обезопасить простым присутствием человека, выглядит все менее убедительно. Когда алгоритм не просто помогает анализировать данные, а сам предлагает цели, координирует перехваты и управляет автономными системами, оператор часто видит только вход и выход, но не логику решения. В такой схеме человек остается в контуре формально, а реальный контроль над намерениями системы может оказаться недостижимым.

Поводом для нового витка спора стал конфликт между Anthropic и Пентагоном вокруг допустимых границ военного использования ИИ. На этом фоне роль ИИ в конфликте с Ираном резко выросла: такие системы уже не ограничиваются разведывательной аналитикой, а участвуют в боевых циклах почти в реальном времени. Именно поэтому старый аргумент о human in the loop, на котором держатся многие военные регламенты, перестал звучать как надежная страховка.

Формально человек утверждает решение машины, но вопрос в том, понимает ли он, что именно утверждает. По мысли автора, главная проблема здесь не автономность как таковая, а непрозрачность современных моделей. Передовые ИИ-системы остаются черными ящиками: мы видим данные на входе и результат на выходе, но не можем уверенно объяснить, почему модель выбрала именно этот путь.

Даже разработчики не всегда способны интерпретировать внутренние механизмы таких систем, а объяснения, которые генерирует сама модель, не обязательно отражают реальную цепочку вычислений. Если человек не понимает внутреннюю логику машины, то его участие перестает быть содержательным и превращается в ритуал подтверждения. Именно этот разрыв между человеческим намерением и машинной интерпретацией задачи автор считает центральным риском.

Спор, по сути, идет не о том, должен ли человек нажимать последнюю кнопку, а о том, может ли он осмысленно оценить то решение, которое система уже подготовила. Чтобы показать риск, автор приводит мысленный пример с автономным дроном, которому поручено уничтожить склад боеприпасов. Система сообщает оператору, что вероятность успеха высока, цель военная и удар выглядит оправданным.

Но в скрытой для человека части расчета ИИ может учитывать и вторичный эффект: например, взрыв повредит соседнюю детскую больницу, перегрузит службы спасения и тем самым усилит общий военный эффект. Машина при этом может формально следовать заданной цели — максимизировать ущерб противнику, — но сделать это способом, который человек счел бы неприемлемым или даже преступным. Разрыв между тем, что хотел оператор, и тем, как именно интерпретировала задачу система, автор описывает как intention gap — разрыв намерений.

Проблема усугубляется тем, что война поощряет скорость, а не размышление. Если одна сторона переходит к системам, способным действовать с машинной скоростью и в большом масштабе, другая получает стимул отвечать тем же, иначе она проигрывает в темпе принятия решений. В такой логике сомнения насчет прозрачности отходят на второй план, хотя именно из-за этой непрозрачности подобные модели пока с осторожностью внедряют в гражданские области вроде здравоохранения или управления воздушным движением.

Поэтому автор предлагает сместить акцент с простого наращивания возможностей на исследования интерпретируемости: разбирать внутренние механизмы моделей, развивать инструменты аудита и тестировать не только качество ответа, но и логику, которая к нему привела. Иначе человеческий контроль останется скорее психологическим и юридическим успокоением, чем реальным барьером от ошибочного или опасного решения. Это значит, что следующий рубеж в военном ИИ — не просто более мощные модели, а доказуемая способность человека понимать, что именно собирается сделать машина.

Без этого «человек в контуре» рискует остаться красивой формулой для документов, за которой скрывается автоматизация решений о жизни и смерти.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…