Регуляторы пяти стран следят за Mythos от Anthropic из-за рисков для банков
Австралийская Комиссия по ценным бумагам ASIC официально подтвердила, что следит за Mythos — новой AI-моделью Anthropic, потенциально опасной для банковской сис

Парад регуляторов пополнился: австралийская Комиссия по ценным бумагам и инвестициям (ASIC) официально подтвердила, что следит за разработкой Mythos — новой языковой модели компании Anthropic. Это происходит на фоне нарастающей международной реакции: за несколько недель единичная обеспокоенность превратилась в скоординированное глобальное наблюдение. До ASIC о мониторинге Mythos уже заявили Банк Англии, Федеральная резервная система США и Министерство финансов США.
Президент ЕЦБ Кристин Лагард добавила к общей тревоге ключевое предупреждение: никакой системы управления новой моделью пока не существует. Для финансовой архитектуры еврозоны с ВВП свыше 14 триллионов евро — это не просто слова. Что такое Mythos и почему он вызвал такую реакцию?
Anthropic — компания, известная прежде всего семейством моделей Claude, — разрабатывает Mythos как систему с расширенными возможностями автономных действий в финансовой среде. По имеющимся данным, модель способна взаимодействовать с банковской инфраструктурой, обрабатывать транзакции и принимать финансовые решения с минимальным участием человека. Именно это и привлекло надзорные органы: автономный AI в финансовом секторе — принципиально иной уровень риска по сравнению с привычными аналитическими инструментами.
Регуляторов беспокоят несколько сценариев. Первый — системный риск: если мощная AI-модель получит широкое распространение в банковском секторе и допустит ошибку, последствия могут распространиться на весь рынок — многие институты будут действовать по одному алгоритму. Второй — отсутствие прозрачности: принципы работы больших языковых моделей сложно верифицировать, а значит, регулятор не может гарантировать соответствие установленным правилам.
Третий — скорость изменений: AI-компании выпускают новые версии быстрее, чем успевают формироваться стандарты. ANTHROPIC позиционирует себя как компанию с приоритетом безопасности. Философия конституционного AI и публичные обязательства по ответственному развитию — часть корпоративной идентичности.
Тем не менее реакция регуляторов показывает: декларации о безопасности и реальная готовность системы к работе в критически важной инфраструктуре — разные вещи. Надзорные органы хотят видеть конкретные механизмы аудита, контроля и аварийного отключения. Происходящее вписывается в более широкую тенденцию.
После бурного роста 2023–2024 годов, когда AI-инструменты начали проникать в финансовые услуги, регуляторы по всему миру переходят от наблюдения к активным действиям. В Европе действует AI Act, устанавливающий требования к высокорисковым системам. В США Конгресс работает над законопроектами, а SEC, CFTC и OCC формируют собственные подходы.
Австралия традиционно следует международным стандартам финансового регулирования — и, судя по заявлению ASIC, не намерена отставать. Для компаний, разрабатывающих AI для финансового сектора, наступает новая реальность: возможности модели больше не определяют горизонт её применения. Регуляторная приемлемость теперь такое же ограничение, как техническая готовность.
Mythos может быть сколь угодно мощным инструментом, но без ясных рамок ответственности и согласования с надзорными органами его коммерческое развёртывание в банковской сфере остаётся под вопросом. Для Anthropic это момент проверки. Компания выстраивала репутацию на принципе safety first — теперь ей предстоит доказать, что эти принципы работают не только в лаборатории, но и под пристальным взглядом пяти крупнейших финансовых регуляторов мира.