3DNews AI→ оригинал

La NSA Continúa Usando Modelos Anthropic a Pesar de Advertencias Oficiales

Las autoridades estadounidenses han considerado a Anthropic una amenaza para la seguridad nacional — sin embargo, la propia Agencia de Seguridad Nacional no se

La NSA Continúa Usando Modelos Anthropic a Pesar de Advertencias Oficiales
Источник: 3DNews AI. Коллаж: Hamidun News.

Агентство национальной безопасности США продолжает использовать искусственный интеллект от Anthropic — несмотря на то что американские власти объявили компанию потенциальной угрозой для национальной безопасности. Пока федеральное правительство ищет ответ на вопрос, как дальше выстраивать отношения с этим разработчиком, силовые структуры живут по собственной логике. Ситуация выглядит откровенно парадоксальной.

С одной стороны, Anthropic — создатель Claude, одного из наиболее мощных коммерческих ИИ-ассистентов — попала под прицел американских регуляторов. С другой стороны, АНБ, чья работа завязана на обработке огромных массивов разведывательных данных, явно нашло применение этим инструментам и не собирается от них отказываться. Официальных комментариев о том, для каких конкретно задач применяются модели, не поступало — но логика очевидна: суммаризация документов, лингвистический анализ, автоматизация рутинных аналитических операций.

В центре претензий к Anthropic — несколько факторов. Компания зарегистрирована в США, однако среди её крупных инвесторов числится Google, а её основатели — выходцы из OpenAI. Само по себе это не делает её угрозой, но на фоне нарастающего технологического противостояния с Китаем американские регуляторы стали придирчивее относиться к любым зарубежным связям в AI-секторе.

Переговоры Anthropic о расширении партнёрств с азиатскими инвесторами, по всей видимости, и привлекли повышенное внимание властей. Это не первый случай, когда государственные ведомства США сталкиваются с подобным внутренним противоречием. ЦРУ ещё в 2023 году тестировало собственную ИИ-платформу на основе больших языковых моделей, Пентагон активно внедрял генеративный ИИ в аналитические процессы.

Разница в том, что тогда речь шла о закрытых, изолированных средах — а не о публично доступных коммерческих продуктах, статус которых сейчас оспаривается на уровне регуляторов. Важно понимать: использование коммерческого ИИ в государственных структурах само по себе не является чем-то из ряда вон выходящим. США давно внедряют гражданские технологии в работу федеральных ведомств — для этого существуют специальные программы сертификации вроде FedRAMP.

Другой вопрос — что происходит, когда ведомство продолжает работать с инструментом, который его же коллеги из другого крыла правительства объявляют рискованным. Именно этот разрыв между официальной риторикой и реальной практикой делает ситуацию с АНБ показательной. Регуляторный орган видит риск и фиксирует его.

Операционное ведомство видит инструмент, который работает, и продолжает им пользоваться. Пока не выработана единая политика, обе позиции существуют параллельно — и никто не торопится их согласовывать. Для самой Anthropic ситуация двойственная.

Государственные контракты — устойчивая выручка и знак институционального доверия. Но быть в центре дискуссии о национальной безопасности — не то, что большинство технологических компаний хотело бы для своего бренда. Особенно в условиях острой конкуренции с OpenAI и Google DeepMind, которые также борются за государственные заказы.

Чем завершится история с оценкой Anthropic как источника риска — пока неясно. Но прецедент примечательный: он показывает, что даже при декларируемой осторожности государство остаётся зависимым от конкретных технологических игроков. И эту зависимость непросто разорвать — даже когда появляется политическая воля это сделать.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…