MIT Technology Review→ оригинал

قد تدخل OpenAI إلى الأنظمة العسكرية الأمريكية ضد إيران — من اختيار الأهداف إلى الدفاع ضد الطائرات المسيّرة

تتخذ صفقة OpenAI مع البنتاغون ملامح أكثر وضوحًا. وقد تُستخدم تقنيات الشركة في الصراع حول إيران لتحديد أولويات الأهداف، والدفاع ضد الطائرات المسيّرة عبر Anduril،

قد تدخل OpenAI إلى الأنظمة العسكرية الأمريكية ضد إيران — من اختيار الأهداف إلى الدفاع ضد الطائرات المسيّرة
Источник: MIT Technology Review. Коллаж: Hamidun News.

После сделки OpenAI с Пентагоном вопрос уже не в том, допустит ли компания военное применение своих моделей. Вопрос в другом: где именно эти технологии могут появиться в конфликте вокруг Ирана — от выбора целей до противодроновой обороны и повседневной инфраструктуры Минобороны США.

Цели и удары Один из самых чувствительных сценариев связан с анализом целей для ударов.

Логика выглядит так: военные аналитики загружают в модель списки потенциальных объектов, а система помогает расставить приоритеты, сопоставляя разведданные, логистику, изображения, видео и текстовые отчеты. Формально окончательное решение должен принимать человек, но сама ценность такого инструмента строится на ускорении цикла оценки и выбора. Чем выше доверие к подсказкам модели, тем сильнее AI влияет на реальную последовательность боевых действий.

Это заметный сдвиг по сравнению с прежними военными AI-системами. Раньше алгоритмы вроде Maven в основном выделяли объекты на дроновых видео и помогали сортировать большие массивы данных. Теперь речь идет о генеративной модели, с которой можно разговаривать на естественном языке и получать не просто анализ, а рекомендации: какие цели важнее, где находится техника, какие факторы меняют срочность удара.

Переход от инструмента распознавания к советнику по боевым решениям и делает историю вокруг OpenAI особенно спорной.

«Военные не смогут использовать нашу технологию для создания автономного оружия».

На бумаге эта граница выглядит жесткой, но на практике она менее однозначна. Если система не нажимает на спуск сама, а только помогает человеку быстрее выбрать цель, спор о допустимости сразу усложняется. В условиях затяжного конфликта давление на ускорение таких процессов почти неизбежно, а значит рамки применения модели будут проверяться не в теории, а внутри реальных процедур принятия удара. Именно здесь и проходит самая острая линия спора вокруг подобных контрактов.

Оборона от дронов

Второй вероятный канал — партнерство OpenAI с Anduril, объявленное в конце 2024 года. Оно связано с анализом в реальном времени атакующих дронов и помощью в их перехвате. OpenAI объясняет такой сценарий тем, что политика компании запрещает системы для причинения вреда людям, но допускает использование технологий против беспилотников как технических целей.

Именно эта формулировка и открывает путь к очень тесному соприкосновению гражданской генеративной модели с боевой инфраструктурой. Anduril уже строит крупные контуры противодроновой обороны и развивает интерфейс Lattice, через который военные управляют сенсорами, платформами и элементами автономных систем. Если модели OpenAI окажутся полезны внутри такого контура, они могут стать еще одним слоем над существующими военными данными и командами.

Ставки здесь не абстрактные: после иранской атаки дронами 1 марта 2026 года, в результате которой в Кувейте погибли американские военные, спрос на ускорение и автоматизацию таких решений только вырос.

От штаба до фронта

Третий сценарий выглядит менее драматично, но может оказаться самым масштабным: внедрение OpenAI в повседневную работу Пентагона через платформу GenAI.mil. Изначально она создавалась для более безопасного доступа к коммерческим моделям в задачах вроде контрактов, закупок, логистики и подготовки документов. Но такие инструменты постепенно делают AI привычной частью всей военной машины — сначала в административных процессах, потом ближе к оперативным задачам, где доверие к подсказкам системы уже выше. Если смотреть шире, картина получается такой: * OpenAI может помогать ранжировать цели и анализировать разведданные.

  • Партнерство с Anduril дает выход в системы противодроновой обороны.
  • GenAI.mil встраивает модели в повседневные процессы Пентагона.
  • Военные привыкают к интерфейсам, где AI становится частью рабочего решения.
  • Граница между «офисным» и «боевым» применением постепенно размывается. Это важный сдвиг не только для одного конфликта. Еще недавно главный вопрос звучал так: должны ли крупные AI-компании вообще работать с военными. Теперь вопрос другой: в какой точке цепочки принятия решения модель окажется завтра — в документообороте, в системе противодействия дронам или рядом с анализом целей для удара. И чем глубже такие модели входят в инфраструктуру, тем сложнее потом отделить вспомогательный софт от боевого контура и управленческой логики войны.

Что это значит

История вокруг OpenAI показывает, что граница между корпоративным AI и военной инфраструктурой США быстро истончается. Для рынка это сигнал, что спор о военном применении моделей больше не сводится к декларациям об этике: он переходит в конкретные контракты, продуктовые интеграции и реальные сценарии, где цена ошибки намного выше, чем в обычном корпоративном софте. А значит, обсуждать придется уже не намерения компаний, а фактическую роль их моделей в боевых системах.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…