Governador do Banco da Inglaterra pede avaliação urgente de riscos cibernéticos para bancos do modelo IA Mythos da Anthropic
Andrew Bailey, governador do Banco da Inglaterra, pediu aos reguladores globais que determinem urgentemente quais riscos cibernéticos o modelo de IA Mythos da A

Глава Банка Англии Эндрю Бейли призвал мировых регуляторов быстро оценить угрозу, которую для банков может представлять ИИ-модель Mythos от Anthropic. Само по себе это заявление важно не только из-за упоминания конкретной компании или модели. Оно показывает, что обсуждение искусственного интеллекта в финансовом секторе смещается от темы эффективности и автоматизации к вопросу киберустойчивости и системного риска.
Для центробанков и надзорных органов теперь важен не только потенциал ИИ, но и то, насколько быстро он может изменить профиль угроз для крупнейших финансовых организаций. Бейли возглавляет один из ключевых центральных банков мира, и его публичные предупреждения обычно воспринимаются как сигнал для более широкого регуляторного сообщества. Когда речь идет о киберриске, опасения связаны не с абстрактным «восстанием машин», а с более приземленными сценариями: ускорением фишинговых атак, автоматизацией разведки уязвимостей, генерацией вредоносного кода, обходом внутренних процедур и удешевлением сложных атак для злоумышленников.
Банки особенно чувствительны к таким изменениям, потому что они одновременно управляют деньгами, критической платежной инфраструктурой и огромными массивами конфиденциальных данных. Отдельно важно, что Бейли говорит именно о мировой реакции регуляторов. Крупные банки работают сразу в нескольких юрисдикциях, опираются на международные облачные сервисы, подключены к общим платежным каналам и используют длинные цепочки внешних поставщиков технологий.
Если мощная ИИ-система снижает порог входа для кибератак или ускоряет подготовку сложных операций, проблема не остается локальной. Слабое звено в одной стране или у одного подрядчика может быстро превратиться в проблему для трансграничных финансовых потоков. Поэтому идея быстрой оценки звучит как призыв к координации, а не просто к еще одному внутреннему отчету.
Упоминание Mythos тоже показательно. Регуляторы часто обсуждают ИИ как класс технологий, но реже публично указывают на конкретную модель, требующую срочной оценки рисков. Это значит, что фокус постепенно сдвигается от общих принципов к практическому анализу возможностей продукта: насколько автономно он может выполнять цепочки действий, как хорошо он справляется с техническими задачами, может ли использовать внешние инструменты, насколько масштабируемым делает потенциальное злоупотребление и как быстро его возможности улучшаются от версии к версии.
Такой подход не равен обвинению разработчика в создании опасного инструмента. Скорее это признание того, что модельные возможности сами по себе становятся предметом финансового надзора. Для банков подобные сигналы означают, что одной формальной кибергигиены уже недостаточно.
Им, вероятно, придется заново смотреть на контроль доступа, процессы работы сотрудников с внешними ИИ-сервисами, проверку подрядчиков, тестирование сценариев мошенничества, защиту внутренних репозиториев кода и качество мониторинга необычной активности. При этом ИИ усложняет картину тем, что одни и те же технологии могут одновременно усиливать и защиту, и нападение. Системы, которые помогают аналитикам быстрее выявлять аномалии и автоматизировать расследования, потенциально могут так же ускорять подготовку более точных и масштабных атак.
Из-за этого прежняя модель редких проверок и медленного обновления требований выглядит все менее достаточной. Заявление Бейли можно читать как ранний маркер нового этапа регулирования: ИИ в финансах теперь рассматривают не только через призму инноваций, но и через призму операционной устойчивости. Если мировые регуляторы действительно ускорят такую оценку, банки, скорее всего, столкнутся с более жесткими требованиями к тестированию, раскрытию информации и управлению внешними технологическими зависимостями.
Если нет, преимущество в скорости может оказаться на стороне атакующих. Главный вопрос здесь не в том, нужен ли финансовому сектору ИИ, а в том, успевают ли правила и средства защиты за темпом развития самих моделей.