Bloomberg Tech→ оригинал

Anthropic ne rend pas Mythos accessible au public en raison du risque d’attaques contre les infrastructures critiques

Anthropic a décidé de ne pas rendre Mythos accessible au public : l’entreprise estime que le modèle est trop performant pour trouver des vulnérabilités dans les

Anthropic ne rend pas Mythos accessible au public en raison du risque d’attaques contre les infrastructures critiques
Источник: Bloomberg Tech. Коллаж: Hamidun News.

Anthropic ограничила доступ к новой модели Mythos, заявив, что та слишком эффективно находит уязвимости в софте и компьютерных системах. По словам компании, публичный релиз такого инструмента может упростить кражу данных и атаки на критическую инфраструктуру.

Почему доступ закрыли

Anthropic описывает Mythos не как обычную модель для чата или программирования, а как систему, которая особенно сильна в поиске слабых мест в цифровой инфраструктуре. Речь идет не только о багах в коде, но и о более широких уязвимостях в программном обеспечении и компьютерных системах. В такой постановке ценность модели для защитников и атакующих почти зеркальная: то, что помогает быстрее находить дыры для исправления, может так же быстро подсказать, где и как бить по чужой системе.

  • Быстрый поиск уязвимостей в софте Анализ слабых мест в компьютерных системах Потенциальное упрощение кражи данных * Риск атак на критическую инфраструктуру Главный сигнал здесь в том, что Anthropic сама проводит границу между мощной полезной технологией и слишком опасным массовым продуктом. Компания прямо говорит: если инструмент такого уровня попадет не в те руки, им будет проще пользоваться злоумышленникам. Для рынка это важный сдвиг. Обычно AI-компании соревнуются скоростью релизов и широтой доступа, а здесь одна из крупнейших лабораторий фактически признает, что в некоторых случаях ограничение распространения важнее, чем гонка за охватом.

Кому дали доступ

Вместо открытого запуска Anthropic передала Mythos лишь небольшому числу тщательно отобранных сторон. В приведенном описании не раскрывается, кто именно вошел в этот круг, но акцент сделан на контроле: модель не ушла в публичный доступ, а была выдана ограниченно и адресно. Такой подход больше похож на работу с чувствительными исследовательскими инструментами, чем на классический запуск AI-продукта через сайт, API или подписку, где важнее масштабирование и рост пользовательской базы.

Это решение показывает, что Anthropic пытается управлять не только качеством модели, но и последствиями ее применения. Для компании риск выглядит не теоретическим, а практическим: Mythos, по ее оценке, может облегчить действия тем, кто ищет способы нарушить работу систем или получить доступ к данным. Иначе говоря, речь уже не о привычных спорах вокруг галлюцинаций, авторских прав или стоимости инференса, а о прямой связи между возможностями модели и потенциальным ущербом в сфере кибербезопасности.

Почему тревога растет

История с Mythos поднимает неудобный вопрос для всей AI-индустрии: что делать с моделями, чья польза для защиты неотделима от пользы для атаки. Чем лучше система умеет находить уязвимости, тем выше шанс, что она станет ускорителем не только для безопасников, но и для тех, кто ищет более дешевые и масштабируемые способы взлома. В этом смысле глобальная тревога связана не с самим фактом существования такого инструмента, а с тем, насколько трудно удержать его внутри узкого доверенного контура.

На этом фоне Mythos выглядит как ранний пример того, как AI-компании будут вынуждены вводить уровни доступа по степени опасности модели. Если раньше основным вопросом был предел интеллектуальных возможностей систем, то теперь все заметнее становится вопрос операционного контроля: кому давать модель, в каком режиме, с какими ограничениями и что делать, если ее возможности начинают опережать механизмы защиты. Для регуляторов, крупных корпораций и операторов инфраструктуры это уже не абстрактная дискуссия, а рабочая проблема.

Что это значит

Рынок AI подходит к этапу, где не каждую сильную модель будут сразу выкладывать в открытый доступ. Случай Mythos показывает: чем ближе инструмент к реальным сценариям кибератак, тем важнее становятся отбор получателей, режим использования и контроль распространения. Для бизнеса это сигнал заранее думать не только о внедрении AI в защиту, но и о том, как защищаться от AI, который делает атаки быстрее и дешевле.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…