Anthropic a créé le modèle Mythos — et a décidé de ne pas le lancer pour des raisons de sécurité
Anthropic a développé le modèle Mythos Preview — puis a décidé de ne pas le lancer. Selon l'entreprise, le modèle est trop performant pour trouver et exploiter

Anthropic отказалась выпускать новую модель Mythos Preview в открытый доступ, сославшись на её исключительную опасность. По словам компании, модель настолько хорошо умеет находить и эксплуатировать уязвимости в программном обеспечении, что её публичный релиз создал бы угрозу экономической стабильности, общественной безопасности и национальным интересам. Это редкий случай, когда крупная AI-компания сама решает придержать собственную разработку — и это уже вызвало споры среди специалистов отрасли.
Mythos Preview — экспериментальная языковая модель Anthropic, которую компания охарактеризовала как слишком мощную для публичного релиза. По имеющимся данным, модель демонстрирует выдающиеся способности в области кибербезопасности: она способна самостоятельно обнаруживать уязвимости в коде и выстраивать цепочки их эксплуатации. По сути, это означает, что Mythos может работать как высококвалифицированный хакер-аналитик — быстро, масштабируемо и без человеческого надзора.
Anthropic не публиковала технических подробностей о процессе обучения модели или независимых оценках безопасности, ограничившись обещанием предоставить доступ к Mythos Preview лишь избранным исследователям и государственным структурам. Решение компании вызвало неоднозначную реакцию в экспертном сообществе. Часть исследователей в области AI-безопасности признаёт, что мощные инструменты наступательной кибербезопасности действительно заслуживают особой осторожности при распространении.
Существующие автоматизированные сканеры уязвимостей уже активно используются злоумышленниками — и LLM с продвинутым рассуждением способна поднять эту угрозу на принципиально новый уровень. Другая часть экспертов настроена скептически. Anthropic не предоставила независимых оценок или воспроизводимых тестов возможностей Mythos.
Более того, ограничение доступа косвенно выгодно самой компании: она выглядит ответственным лидером отрасли, не неся рисков публичной критики модели. Наблюдатели также указывают, что подобные заявления совпадают по времени с активными дискуссиями о регулировании AI в правительствах США и ЕС. Вопрос, который задают скептики: это реальная угроза или умело выстроенный PR?
Anthropic последовательно позиционирует себя как безопасную AI-компанию — в отличие от конкурентов, якобы ставящих скорость выпуска выше осторожности. Это позиционирование привлекает инвесторов, лояльность регуляторов и доверие корпоративных клиентов. Решение с Mythos идеально вписывается в эту логику: компания демонстрирует готовность пожертвовать коммерческим доступом ради безопасности.
Но критики указывают: нельзя быть одновременно судьёй и обвиняемым. Независимой оценки возможностей модели не существует — есть только слово самой Anthropic. История Mythos ставит вопрос, который станет ключевым для всей отрасли в ближайшие годы: кто именно решает, насколько опасна та или иная AI-система, и кто проверяет правильность этого решения?
Если компании сами устанавливают эту границу, конфликт интересов неизбежен. Случай с Mythos Preview может стать первым реальным тест-кейсом для регуляторных механизмов, которые сейчас разрабатываются по обе стороны Атлантики.