Trump Administration Advises Banks to Test Anthropic's Mythos Model
Trump administration officials, according to TechCrunch, informally recommend that American banks test Anthropic's new language model Mythos. The situation is p

Чиновники из окружения президента Дональда Трампа, по данным TechCrunch, неформально рекомендуют американским банкам рассмотреть тестирование новой языковой модели Mythos от компании Anthropic. Это сообщение вызвало немедленное удивление в индустрии — буквально незадолго до этого Министерство обороны США официально включило Anthropic в список компаний, представляющих риск для цепочки поставок. Два противоречивых сигнала, исходящих практически одновременно из разных структур одной администрации, поставили рынок в тупик.
Anthropic — один из ключевых игроков рынка генеративного ИИ, создатель семейства моделей Claude. Компанию основали в 2021 году бывшие сотрудники OpenAI во главе с Дарио и Даниэлой Амодеи. Anthropic активно развивает корпоративное направление, последовательно позиционируя себя как разработчика безопасного и предсказуемого искусственного интеллекта.
Судя по всему, модель Mythos создавалась с прицелом на финансовый сектор — задачи с высокими требованиями к надёжности, трассируемости решений и соответствию регуляторным стандартам. Статус supply-chain risk, присвоенный Anthropic Министерством обороны, несёт весьма серьёзные коннотации. Исторически подобные обозначения применялись в первую очередь к китайским технологическим компаниям — Huawei, ZTE и другим — когда у американских властей возникали опасения относительно безопасности данных, иностранного влияния или уязвимостей в аппаратной цепочке.
Распространение этой практики на американского частного разработчика ИИ стало событием неординарным и породило массу вопросов. Конкретных публичных оснований для включения Anthropic в список Пентагон не предоставил, что само по себе добавляет тревоги. Именно поэтому параллельное неформальное продвижение Mythos среди банков со стороны чиновников, близких к Белому дому, воспринимается как крайне противоречивый сигнал.
Формально эти два решения исходят из принципиально разных ведомств с разными приоритетами. Финансовые регуляторы смотрят на рынок через призму конкурентоспособности и технологического лидерства США, оборонное министерство — через призму национальной безопасности и управления рисками в цепочке поставок. Нередко эти приоритеты вступают в прямое противоречие.
Для банков, которым предстоит принимать долгосрочные стратегические решения о внедрении ИИ, подобная неопределённость создаёт реальную проблему: непонятно, каким сигналам доверять и не обернётся ли сегодняшнее поощрение завтрашними ограничениями. Американский банковский сектор, между тем, активно движется к широкому применению ИИ. JPMorgan Chase, Bank of America, Goldman Sachs и другие крупные финансовые институты уже развёртывают языковые модели для автоматизации аналитики, клиентского сервиса, риск-менеджмента и compliance-проверок.
В этом контексте выбор поставщика ИИ-инфраструктуры — не просто техническое, но глубоко политическое решение. Утечки данных, сбои в работе модели или нежелательное поведение в банковском контексте могут иметь катастрофические регуляторные и репутационные последствия. Происходящее отражает более глубокое системное противоречие в американской технологической политике.
С одной стороны — стремление обеспечить стране лидерство в области ИИ, стимулировать коммерческое внедрение и не отдать рынок конкурентам. С другой — нарастающее беспокойство по поводу безопасности, стратегической зависимости государственных и критических структур от частных компаний. Anthropic оказался в эпицентре этого конфликта.
Для самой компании ситуация несёт двойной сигнал. Неформальная поддержка со стороны чиновников Трампа может значительно ускорить проникновение в финансовый сектор и укрепить коммерческие позиции. Однако статус supply-chain risk в Пентагоне способен осложнить или полностью заблокировать доступ к государственным и оборонным контрактам — традиционно важному источнику выручки для крупных американских технологических компаний.
Последуют ли банки неформальным рекомендациям чиновников и возьмут ли на себя регуляторный риск, связанный с Anthropic, — покажет ближайшее время. Но сам факт публичного раздвоения сигналов внутри одной администрации красноречиво свидетельствует: регуляторный ландшафт вокруг ИИ остаётся глубоко нестабильным, а любые крупные вложения в конкретного вендора сегодня неизбежно несут в себе политический риск, который ещё недавно было принято игнорировать.