АНБ тестирует модель Anthropic Mythos для поиска уязвимостей в продуктах Microsoft
АНБ США тестирует новую модель Anthropic Mythos как инструмент для поиска уязвимостей в популярном ПО, включая продукты Microsoft. Детали пилота не раскрываются

АНБ США тестирует новую модель искусственного интеллекта Mythos от Anthropic для поиска уязвимостей в популярном ПО, включая продукты Microsoft. Это один из самых заметных сигналов того, что генеративные модели начинают использовать не только для написания кода, но и для аудита безопасности на уровне крупных государственных структур.
Что известно сейчас
По имеющейся информации, агентство национальной безопасности США проверяет, насколько модель Anthropic способна находить слабые места в широко используемом программном обеспечении. В числе систем, попавших в поле такого тестирования, называются продукты Microsoft. Детали проекта пока не раскрываются: неизвестно, идет ли речь о внутреннем пилоте, разовой оценке возможностей модели или более широком процессе, который может стать частью постоянной практики.
Пока в открытом доступе нет и данных о том, какие именно классы багов ищет система. Важно и то, кто именно выступает заказчиком таких проверок. Если эксперименты с ИИ для поиска багов проводит АНБ, это означает, что технология рассматривается не как лабораторная демонстрация, а как потенциально полезный инструмент для реальных задач кибербезопасности.
Для рынка это сильный маркер: крупные организации готовы проверять, может ли модель ускорять работу специалистов по защите инфраструктуры и корпоративного ПО. Особенно там, где цена пропущенной ошибки слишком высока. Отдельный интерес вызывает сама связка Anthropic, Microsoft и АНБ.
С одной стороны, речь идет о крупном разработчике моделей, который продвигает ИИ в корпоративные и чувствительные сценарии. С другой — о программной экосистеме, на которой держится значительная часть офисной, облачной и инфраструктурной работы. Когда такие игроки сходятся в одном кейсе, это уже не эксперимент ради презентации, а проверка на практическую ценность в высокорискованной среде.
Как это может работать В подобных сценариях ИИ не заменяет
исследователя безопасности целиком, а помогает быстрее разбирать большие массивы кода, документации и системных зависимостей. Модель можно использовать как ассистента, который предлагает гипотезы, показывает подозрительные участки, помогает воспроизводить цепочки ошибок и формулирует, где именно стоит копать глубже. Финальная валидация при этом остается за человеком, особенно если речь идет о критически важных продуктах.
Это особенно важно при работе со старыми и сложными системами. Для Microsoft такой интерес тоже показателен. Ее решения стоят в основе огромного количества корпоративных и государственных систем, поэтому даже небольшие уязвимости в популярных продуктах могут иметь широкий эффект.
Если ИИ способен обнаруживать такие проблемы раньше злоумышленников или классических циклов аудита, выигрыш будет не только в скорости, но и в масштабе: одна и та же модель может параллельно анализировать больше компонентов, чем ограниченная команда вручную.
Где польза для защиты В таких проектах модели обычно ценны не одной
«магической» функцией, а набором ускорителей для команды безопасности. Они не отменяют ручной аудит, но помогают быстрее сузить круг проверки, расставить приоритеты и перевести сырые технические сигналы в понятные действия для инженеров, аналитиков и владельцев продукта. Такой слой полезен, когда у команды мало времени на первичную сортировку сигналов и слишком много мест, где может скрываться ошибка.
быстро выделяют потенциально рискованные участки кода и логики помогают сопоставлять симптомы ошибки с известными классами уязвимостей подсказывают сценарии проверки для редких или сложных комбинаций компонентов сокращают время между первичным сигналом и ручной перепроверкой * помогают документировать выводы понятным языком для разработчиков и аналитиков При этом вокруг таких инструментов остается много ограничений. Модель может ошибочно помечать безопасный код как опасный, пропускать нестандартные баги или предлагать убедительные, но неверные объяснения. Поэтому ключевой вопрос не в том, «умеет ли ИИ искать уязвимости» вообще, а в том, насколько стабильно он делает это на реальных продуктах, с приемлемым числом ложных срабатываний и с понятной пользой для команды.
Именно поэтому без экспертов такие системы пока не работают.
Что это значит
История с Mythos показывает, что следующий этап внедрения ИИ в кибербезопасность — не чат-боты для справки, а практические инструменты для аудита сложного ПО. Если такие тесты дадут результат, крупные вендоры и госструктуры начнут быстрее встраивать модели в процессы поиска и приоритизации уязвимостей.