Anthropic: Claude Mythos Preview Finds Thousands of Critical Code Vulnerabilities
Anthropic unveiled Claude Mythos Preview as a new class of tool for discovering code bugs. According to the company, the model has already identified thousands

Anthropic показала, насколько быстро меняется кибербезопасность в эпоху генеративного ИИ: её модель Claude Mythos Preview смогла выявить тысячи уязвимостей высокого и критического уровня, включая проблемы в популярных операционных системах, браузерах и криптографических библиотеках. Но главный вывод не в том, что ИИ научился лучше искать баги. Те же способности, которые помогают находить слабые места в коде, позволяют использовать их и для атак, поэтому автоматизация безопасности теперь требует не только скорости, но и новых правил контроля.
В начале апреля команда Frontier Red Team внутри Anthropic сообщила, что Mythos Preview обнаружила множество серьёзных проблем, хотя модель специально не обучали именно на поиске таких уязвимостей. По словам компании, среди находок есть дефекты практически во всех крупных операционных системах и основных браузерах. В числе примеров называют 27-летний баг в OpenBSD, который позволяет удалённо вывести из строя машину, уязвимость в браузере, через которую злоумышленник может читать данные с другого домена, а также слабости в криптографических библиотеках, способные открыть путь к расшифровке защищённого трафика или подделке сертификатов.
На фоне этих результатов Anthropic запустила Project Glasswing. В проекте участвуют Amazon Web Services, Apple, Google, Microsoft и Nvidia, а задача партнёрства проста: использовать Mythos Preview для сканирования программного обеспечения и укрепления его защиты. Логика понятна.
Если большие языковые модели уже умеют разбирать огромные кодовые базы, отслеживать поток данных между компонентами и замечать нетривиальные связи между ошибками, то они становятся не просто ещё одним статическим анализатором, а инструментом, который в чём-то начинает приближаться к работе живого исследователя безопасности. На это обращают внимание и практики из отрасли. Они отмечают, что сильная сторона таких моделей не только в скорости, хотя она важна сама по себе, но и в способности рассуждать о семантике кода.
Традиционные инструменты с жёсткими правилами в основном ищут совпадения по заранее заданным шаблонам, тогда как современные LLM-системы могут проследить, как данные проходят через разные уровни абстракции, и заметить проблему, которая возникает лишь на стыке нескольких компонентов. Для больших репозиториев это особенно важно: ИИ-агенту проще найти редкую, но опасную иголку в огромном стоге кода. При этом у такого подхода есть и обратная сторона.
Модели по-прежнему дают ложные срабатывания, могут неверно классифицировать баг как уязвимость или завышать серьёзность проблемы. Для сопровождающих open source проектов это превращается в отдельную нагрузку: число репортов растёт, а время на разбор каждого сигнала увеличивается. Ещё один риск в том, что ИИ-инструменты можно не только атаковать, например через prompt injection, но и использовать как наступательный механизм.
Та же Mythos Preview, как утверждается, умеет связывать несколько отдельных дефектов в пошаговую цепочку эксплуатации, которая в итоге даёт доступ уровня root к ядру Linux. Именно поэтому эксперты говорят не о полной замене людей, а о многоступенчатой схеме проверки. Один из вариантов, который уже применяют в отрасли, это adversarial self review: модель сначала находит проблему, а затем сама же пытается оспорить свой вывод или передаёт находку другой модели для независимой валидации.
Такой дополнительный слой помогает сократить шум, но не отменяет ручную проверку. Выводы ИИ остаются вероятностными, а значит финальное решение должен принимать специалист, который понимает бизнес-логику продукта, архитектуру системы и реальный сценарий эксплуатации. Дополнительно компании советуют развивать динамическое моделирование угроз, red teaming и сдвигать безопасность в начало процесса разработки, чтобы разработчики устраняли слабые места ещё на этапе написания кода, а не после релиза.
Главный вопрос теперь даже не в том, может ли ИИ находить уязвимости лучше и быстрее человека, а в том, как встроить его в безопасный рабочий процесс. Следующий рубеж для таких систем — не только детектирование, но и масштабное исправление найденных проблем. Если этот этап получится автоматизировать без потери качества и без отказа от человеческого контроля, разработка защищённого софта заметно ускорится.
Если нет, индустрия получит ещё один мощный, но шумный инструмент, который создаёт столько же работы, сколько экономит.