Wired→ оригинал

أوضحت Palantir كيف يمكن للعسكريين استخدام روبوتات الدردشة المعتمدة على AI لتخطيط العمليات

أجرت Palantir سلسلة من العروض المغلقة أظهرت كيف يمكن للعسكريين استخدام روبوتات دردشة تعتمد على AI — بما في ذلك تلك المبنية على Claude من Anthropic — لتحليل بيان

أوضحت Palantir كيف يمكن للعسكريين استخدام روبوتات الدردشة المعتمدة على AI لتخطيط العمليات
Источник: Wired. Коллаж: Hamidun News.

Palantir Technologies провела серию закрытых демонстраций, показывающих, как большие языковые модели — в частности, Claude от Anthropic — могут использоваться военными для анализа разведывательных данных и генерации предложений по планированию операций. Материалы этих демонстраций и документы Пентагона, изученные журналистами Wired, впервые дают публичный взгляд на то, как ИИ-чатботы интегрируются в системы военного командования. Palantir — компания, специализирующаяся на аналитике данных для государственных структур и спецслужб, — давно работает с Министерством обороны США.

Однако публичные демонстрации chatbot-интерфейсов именно для военного планирования появились впервые. В ходе показов ИИ-система получала разведывательные данные, анализировала их и предлагала офицерам конкретные следующие шаги — от логистических решений до тактических рекомендаций. Ключевая деталь: в части демонстраций в качестве языковой модели использовался Claude от Anthropic — компании, позиционирующей себя как приоритетного разработчика безопасного ИИ.

Это создаёт непростой контекст. Anthropic публично акцентирует ответственное использование технологий, однако её разработки оказываются в основе систем военного планирования. Anthropic не первый гражданский ИИ-вендор, сотрудничающий с оборонным ведомством, но характер и масштаб интеграции вызвали новую волну дискуссий в отрасли.

Документы Пентагона подтверждают: речь идёт не о пилотных экспериментах на бумаге, а об активной проработке реальных боевых применений. Системы на базе LLM рассматриваются как инструменты для ускорения так называемого цикла OODA — Observe, Orient, Decide, Act. В военных операциях скорость обработки разведданных и принятия тактических решений критически важна, и ИИ-ассистенты могут дать здесь ощутимое преимущество.

Palantir позиционирует свою платформу AIP (Artificial Intelligence Platform) как решение для государственных заказчиков с акцентом на контролируемость и безопасность данных. На демонстрациях оператор задавал вопросы системе на естественном языке, а та агрегировала данные из множества источников и формировала структурированный ответ с рекомендациями. Финальное решение, согласно официальной позиции компании, всегда остаётся за человеком.

Однако критики указывают на риски. Когда ИИ-система предлагает следующие шаги в боевой обстановке, граница между рекомендацией и решением размывается. Когнитивные исследования фиксируют: люди склонны доверять автоматизированным системам даже при некорректных выводах — особенно в условиях стресса и высокой информационной нагрузки, характерных для военных командиров.

Это серьёзная проблема, которую отрасль пока не решила. Отдельный вопрос — данные. Разведывательная информация, которую обрабатывают такие системы, относится к высшим категориям секретности.

Palantir имеет необходимые допуски и многолетний опыт работы с засекреченными инфраструктурами, однако интеграция коммерческих LLM ставит новые вопросы о безопасности, контроле над моделями и возможных уязвимостях. Происходящее — часть широкого тренда. Армии ведущих держав активно исследуют возможности ИИ для ускорения командования и контроля.

Разрыв между публичными декларациями об ответственном ИИ и реальным применением технологий в военных системах становится всё более очевидным. Для отрасли это сигнал: компании, создающие большие языковые модели, неизбежно становятся частью оборонного технологического стека — независимо от заявленных ценностей.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…