Anthropic withholds Mythos from public release over the risk of attacks on critical infrastructure
Anthropic has decided not to release Mythos publicly: the company believes the model is too good at finding vulnerabilities in software and computer systems. In

Anthropic ограничила доступ к новой модели Mythos, заявив, что та слишком эффективно находит уязвимости в софте и компьютерных системах. По словам компании, публичный релиз такого инструмента может упростить кражу данных и атаки на критическую инфраструктуру.
Почему доступ закрыли
Anthropic описывает Mythos не как обычную модель для чата или программирования, а как систему, которая особенно сильна в поиске слабых мест в цифровой инфраструктуре. Речь идет не только о багах в коде, но и о более широких уязвимостях в программном обеспечении и компьютерных системах. В такой постановке ценность модели для защитников и атакующих почти зеркальная: то, что помогает быстрее находить дыры для исправления, может так же быстро подсказать, где и как бить по чужой системе.
- Быстрый поиск уязвимостей в софте Анализ слабых мест в компьютерных системах Потенциальное упрощение кражи данных * Риск атак на критическую инфраструктуру Главный сигнал здесь в том, что Anthropic сама проводит границу между мощной полезной технологией и слишком опасным массовым продуктом. Компания прямо говорит: если инструмент такого уровня попадет не в те руки, им будет проще пользоваться злоумышленникам. Для рынка это важный сдвиг. Обычно AI-компании соревнуются скоростью релизов и широтой доступа, а здесь одна из крупнейших лабораторий фактически признает, что в некоторых случаях ограничение распространения важнее, чем гонка за охватом.
Кому дали доступ
Вместо открытого запуска Anthropic передала Mythos лишь небольшому числу тщательно отобранных сторон. В приведенном описании не раскрывается, кто именно вошел в этот круг, но акцент сделан на контроле: модель не ушла в публичный доступ, а была выдана ограниченно и адресно. Такой подход больше похож на работу с чувствительными исследовательскими инструментами, чем на классический запуск AI-продукта через сайт, API или подписку, где важнее масштабирование и рост пользовательской базы.
Это решение показывает, что Anthropic пытается управлять не только качеством модели, но и последствиями ее применения. Для компании риск выглядит не теоретическим, а практическим: Mythos, по ее оценке, может облегчить действия тем, кто ищет способы нарушить работу систем или получить доступ к данным. Иначе говоря, речь уже не о привычных спорах вокруг галлюцинаций, авторских прав или стоимости инференса, а о прямой связи между возможностями модели и потенциальным ущербом в сфере кибербезопасности.
Почему тревога растет
История с Mythos поднимает неудобный вопрос для всей AI-индустрии: что делать с моделями, чья польза для защиты неотделима от пользы для атаки. Чем лучше система умеет находить уязвимости, тем выше шанс, что она станет ускорителем не только для безопасников, но и для тех, кто ищет более дешевые и масштабируемые способы взлома. В этом смысле глобальная тревога связана не с самим фактом существования такого инструмента, а с тем, насколько трудно удержать его внутри узкого доверенного контура.
На этом фоне Mythos выглядит как ранний пример того, как AI-компании будут вынуждены вводить уровни доступа по степени опасности модели. Если раньше основным вопросом был предел интеллектуальных возможностей систем, то теперь все заметнее становится вопрос операционного контроля: кому давать модель, в каком режиме, с какими ограничениями и что делать, если ее возможности начинают опережать механизмы защиты. Для регуляторов, крупных корпораций и операторов инфраструктуры это уже не абстрактная дискуссия, а рабочая проблема.
Что это значит
Рынок AI подходит к этапу, где не каждую сильную модель будут сразу выкладывать в открытый доступ. Случай Mythos показывает: чем ближе инструмент к реальным сценариям кибератак, тем важнее становятся отбор получателей, режим использования и контроль распространения. Для бизнеса это сигнал заранее думать не только о внедрении AI в защиту, но и о том, как защищаться от AI, который делает атаки быстрее и дешевле.