3DNews AI→ оригинал

Anthropic and Mythos model tested again by US agencies despite Trump ban

In the US, the formal ban on work with Anthropic is already diverging from practice: federal agencies and congressional committees continue testing the Mythos m

Anthropic and Mythos model tested again by US agencies despite Trump ban
Источник: 3DNews AI. Коллаж: Hamidun News.

Формальный запрет Белого дома на работу с Anthropic оказался слабее интереса американских чиновников к новой модели Mythos: федеральные ведомства и сотрудники конгресса продолжают запрашивать доступ к системе, потому что ее кибервозможности слишком ценны, чтобы ждать окончания политического конфликта. По данным Politico, Центр стандартов и инноваций в области искусственного интеллекта при Министерстве торговли США уже тестирует Mythos на предмет умений искать и использовать уязвимости. Речь идет не о теоретической оценке, а о практической проверке того, насколько модель полезна для киберзащиты и аудита систем.

За последнюю неделю сотрудники как минимум трех комитетов конгресса проводили или запрашивали у Anthropic закрытые брифинги, чтобы понять, как Mythos может применяться для сканирования киберинфраструктуры. Параллельно сооснователь Anthropic Джек Кларк заявил, что компания обсуждает возможности модели и с самой администрацией Дональда Трампа, хотя Пентагон ранее разорвал деловые отношения с разработчиком. Интерес к Mythos объясним.

7 апреля 2026 года Anthropic представила эту систему как свою самую сильную модель для программирования и агентных задач, то есть задач, где ИИ не просто отвечает на запрос, а действует более автономно. В материалах компании и публикациях американской прессы Mythos описывается как инструмент уровня продвинутого исследователя безопасности: модель умеет находить огромные массивы уязвимостей, воспроизводить их и собирать рабочие эксплойты. Во внутренних тестах, о которых сообщал Axios, она успешно создавала proof-of-concept для эксплуатации на первой попытке в 83,1 % случаев, находила ошибки в крупных операционных системах и браузерах и даже выявляла очень старые уязвимости, которые долго оставались незамеченными при обычных проверках.

Именно поэтому Anthropic не стала выкатывать Mythos в открытый доступ. Компания решила ограничить модель кругом проверенных организаций и использовать ее прежде всего в оборонительном режиме — для проверки собственного кода, открытых проектов и критической инфраструктуры. В рамках Project Glasswing к тестам подключили более 40 организаций, включая крупных облачных и ИТ-игроков, а на работу с моделью были выделены значительные кредиты.

Логика проста: если такие системы уже могут резко ускорять поиск уязвимостей, государству и крупным корпорациям выгоднее использовать их для защиты своих сетей раньше, чем аналогичные возможности массово окажутся у атакующих. На этом фоне официальный конфликт вокруг Anthropic выглядит еще более показательно. В начале марта 2026 года Пентагон присвоил компании статус supply-chain risk после спора об условиях использования ее моделей в военной среде.

По данным американских СМИ, Anthropic пыталась сохранить запреты на применение своих систем для полностью автономного оружия и массовой внутренней слежки, а власти сочли такие ограничения неприемлемыми. После этого доступ компании к ряду федеральных каналов закупок был фактически перекрыт, а Белый дом потребовал прекратить работу с Anthropic по государственным линиям. Разработчик оспаривает эти действия в суде, утверждая, что наказание носит карательный характер и выходит далеко за рамки обычного контрактного спора.

Ситуация показывает редкий для ИИ-рынка момент, когда политическая линия государства вступила в прямое противоречие с практическими интересами самих ведомств. Для Пентагона вопрос упирается в контроль над поставщиком и условия применения модели. Для гражданских структур и законодателей приоритет сейчас другой: получить инструмент, который помогает быстрее находить слабые места в программном обеспечении и снижать риски крупных взломов.

Поэтому на уровне бюрократии запрет начинает размываться еще до того, как спор завершился юридически или политически. Главный вывод в том, что Mythos стал не просто очередной громкой моделью, а проверкой того, как государства будут обращаться с ИИ-инструментами двойного назначения. Если система одновременно усиливает и защиту, и потенциальную атаку, полный запрет оказывается трудно удержать на практике.

История с Anthropic показывает: когда речь идет о кибербезопасности и уязвимостях национального масштаба, ведомства готовы обходить даже жесткие политические решения, лишь бы не остаться без доступа к технологии.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…