TechCrunch→ оригинал

АНБ использует засекреченную модель Anthropic Mythos, несмотря на конфликт с Пентагоном

АНБ тайно использует Mythos — засекреченную AI-модель Anthropic, недоступную широкой публике. Это происходит на фоне публичного противостояния Anthropic с Пента

АНБ использует засекреченную модель Anthropic Mythos, несмотря на конфликт с Пентагоном
Источник: TechCrunch. Коллаж: Hamidun News.

АНБ тайно работает с засекреченной AI-моделью Anthropic Mythos — и это происходит вопреки публичному противостоянию компании с Пентагоном. По данным TechCrunch, Агентство национальной безопасности США уже интегрировало ограниченную модель в свою разведывательную деятельность, несмотря на официально натянутые отношения между разработчиком и военным ведомством. Источники издания утверждают, что речь идёт не о пилотном тестировании, а о реальном применении.

Mythos — ограниченная модель Anthropic, недоступная широкой публике. В отличие от Claude, который распространяется через API, подписку и корпоративные контракты, Mythos существует в отдельном, закрытом контуре. Детали о возможностях модели, методах её обучения, системных инструкциях и условиях лицензирования публично не раскрываются.

Само существование Mythos до недавнего времени не было официально подтверждено Anthropic. Аналитики допускают несколько версий того, чем Mythos отличается от стандартного Claude. Возможные объяснения: расширенные контекстные окна для работы с длинными аналитическими документами, дополнительная точность при обработке специфических форматов разведывательных отчётов, ослабленные ограничения на определённые типы запросов, актуальные для государственного сектора.

Альтернативная версия: «ограниченность» означает просто контролируемое распределение — модель не продаётся открыто, а поставляется только верифицированным государственным партнёрам. Anthropic последовательно позиционирует себя как «ответственный» AI-разработчик: компания продвигает принципы безопасного развития технологий и декларирует осторожный подход к военным применениям. Это создало ощутимую публичную дистанцию между Anthropic и оборонным комплексом — в отличие, например, от Palantir, Anduril или Scale AI, которые открыто строят бизнес на контрактах с Министерством обороны.

Тем не менее граница между «гражданскими» и «государственными» AI-провайдерами оказывается тоньше, чем принято считать. Разведывательное сообщество действует в иной системе координат, нежели Пентагон: АНБ подчиняется Директору национальной разведки, а не Министерству обороны. Формально это позволяет агентству заключать контракты с поставщиками независимо от позиции военного ведомства — даже если публично та или иная компания дистанцируется от «военных» применений.

Интеграция AI в работу спецслужб США — давно не новость. ЦРУ ещё в 2023 году запустило внутренний инструмент на базе больших языковых моделей, а к 2025-му расширило сотрудничество с несколькими AI-компаниями. АНБ традиционно опережает публичный дискурс в применении новых технологий.

Для разведывательных структур ключевые применения AI — обработка огромных массивов перехваченных сигналов, автоматизация поиска паттернов в коммуникациях, ускорение аналитических отчётов. В этом контексте появление мощной языковой модели в арсенале агентства — скорее логичный шаг, чем сенсация. Ситуация ставит Anthropic перед знакомым всему технологическому сектору противоречием: публичная этическая позиция и реальная коммерческая практика не всегда совпадают.

Для компании, активно выстраивающей образ «безопасного» разработчика в противовес более агрессивным игрокам рынка, сообщения о сотрудничестве с главным шпионским агентством страны — это репутационный вызов. Ни Anthropic, ни АНБ официально не прокомментировали информацию издания. Пока публичный нарратив о конфликте компании с Пентагоном живёт своей жизнью, реальные деловые отношения с разведывательным сообществом, судя по всему, идут своим чередом.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…