NSA Uses Classified Anthropic Mythos Model Despite Pentagon Conflict
The NSA covertly uses Mythos—a classified Anthropic AI model unavailable to the public. This unfolds amid Anthropic's public clash with the Pentagon over milita

АНБ тайно работает с засекреченной AI-моделью Anthropic Mythos — и это происходит вопреки публичному противостоянию компании с Пентагоном. По данным TechCrunch, Агентство национальной безопасности США уже интегрировало ограниченную модель в свою разведывательную деятельность, несмотря на официально натянутые отношения между разработчиком и военным ведомством. Источники издания утверждают, что речь идёт не о пилотном тестировании, а о реальном применении.
Mythos — ограниченная модель Anthropic, недоступная широкой публике. В отличие от Claude, который распространяется через API, подписку и корпоративные контракты, Mythos существует в отдельном, закрытом контуре. Детали о возможностях модели, методах её обучения, системных инструкциях и условиях лицензирования публично не раскрываются.
Само существование Mythos до недавнего времени не было официально подтверждено Anthropic. Аналитики допускают несколько версий того, чем Mythos отличается от стандартного Claude. Возможные объяснения: расширенные контекстные окна для работы с длинными аналитическими документами, дополнительная точность при обработке специфических форматов разведывательных отчётов, ослабленные ограничения на определённые типы запросов, актуальные для государственного сектора.
Альтернативная версия: «ограниченность» означает просто контролируемое распределение — модель не продаётся открыто, а поставляется только верифицированным государственным партнёрам. Anthropic последовательно позиционирует себя как «ответственный» AI-разработчик: компания продвигает принципы безопасного развития технологий и декларирует осторожный подход к военным применениям. Это создало ощутимую публичную дистанцию между Anthropic и оборонным комплексом — в отличие, например, от Palantir, Anduril или Scale AI, которые открыто строят бизнес на контрактах с Министерством обороны.
Тем не менее граница между «гражданскими» и «государственными» AI-провайдерами оказывается тоньше, чем принято считать. Разведывательное сообщество действует в иной системе координат, нежели Пентагон: АНБ подчиняется Директору национальной разведки, а не Министерству обороны. Формально это позволяет агентству заключать контракты с поставщиками независимо от позиции военного ведомства — даже если публично та или иная компания дистанцируется от «военных» применений.
Интеграция AI в работу спецслужб США — давно не новость. ЦРУ ещё в 2023 году запустило внутренний инструмент на базе больших языковых моделей, а к 2025-му расширило сотрудничество с несколькими AI-компаниями. АНБ традиционно опережает публичный дискурс в применении новых технологий.
Для разведывательных структур ключевые применения AI — обработка огромных массивов перехваченных сигналов, автоматизация поиска паттернов в коммуникациях, ускорение аналитических отчётов. В этом контексте появление мощной языковой модели в арсенале агентства — скорее логичный шаг, чем сенсация. Ситуация ставит Anthropic перед знакомым всему технологическому сектору противоречием: публичная этическая позиция и реальная коммерческая практика не всегда совпадают.
Для компании, активно выстраивающей образ «безопасного» разработчика в противовес более агрессивным игрокам рынка, сообщения о сотрудничестве с главным шпионским агентством страны — это репутационный вызов. Ни Anthropic, ни АНБ официально не прокомментировали информацию издания. Пока публичный нарратив о конфликте компании с Пентагоном живёт своей жизнью, реальные деловые отношения с разведывательным сообществом, судя по всему, идут своим чередом.