Администрация Трампа советует банкам тестировать модель Mythos от Anthropic
Чиновники из окружения Трампа, по данным TechCrunch, неформально рекомендуют американским банкам протестировать новую языковую модель Mythos от Anthropic. Ситуа

Чиновники из окружения президента Дональда Трампа, по данным TechCrunch, неформально рекомендуют американским банкам рассмотреть тестирование новой языковой модели Mythos от компании Anthropic. Это сообщение вызвало немедленное удивление в индустрии — буквально незадолго до этого Министерство обороны США официально включило Anthropic в список компаний, представляющих риск для цепочки поставок. Два противоречивых сигнала, исходящих практически одновременно из разных структур одной администрации, поставили рынок в тупик.
Anthropic — один из ключевых игроков рынка генеративного ИИ, создатель семейства моделей Claude. Компанию основали в 2021 году бывшие сотрудники OpenAI во главе с Дарио и Даниэлой Амодеи. Anthropic активно развивает корпоративное направление, последовательно позиционируя себя как разработчика безопасного и предсказуемого искусственного интеллекта.
Судя по всему, модель Mythos создавалась с прицелом на финансовый сектор — задачи с высокими требованиями к надёжности, трассируемости решений и соответствию регуляторным стандартам. Статус supply-chain risk, присвоенный Anthropic Министерством обороны, несёт весьма серьёзные коннотации. Исторически подобные обозначения применялись в первую очередь к китайским технологическим компаниям — Huawei, ZTE и другим — когда у американских властей возникали опасения относительно безопасности данных, иностранного влияния или уязвимостей в аппаратной цепочке.
Распространение этой практики на американского частного разработчика ИИ стало событием неординарным и породило массу вопросов. Конкретных публичных оснований для включения Anthropic в список Пентагон не предоставил, что само по себе добавляет тревоги. Именно поэтому параллельное неформальное продвижение Mythos среди банков со стороны чиновников, близких к Белому дому, воспринимается как крайне противоречивый сигнал.
Формально эти два решения исходят из принципиально разных ведомств с разными приоритетами. Финансовые регуляторы смотрят на рынок через призму конкурентоспособности и технологического лидерства США, оборонное министерство — через призму национальной безопасности и управления рисками в цепочке поставок. Нередко эти приоритеты вступают в прямое противоречие.
Для банков, которым предстоит принимать долгосрочные стратегические решения о внедрении ИИ, подобная неопределённость создаёт реальную проблему: непонятно, каким сигналам доверять и не обернётся ли сегодняшнее поощрение завтрашними ограничениями. Американский банковский сектор, между тем, активно движется к широкому применению ИИ. JPMorgan Chase, Bank of America, Goldman Sachs и другие крупные финансовые институты уже развёртывают языковые модели для автоматизации аналитики, клиентского сервиса, риск-менеджмента и compliance-проверок.
В этом контексте выбор поставщика ИИ-инфраструктуры — не просто техническое, но глубоко политическое решение. Утечки данных, сбои в работе модели или нежелательное поведение в банковском контексте могут иметь катастрофические регуляторные и репутационные последствия. Происходящее отражает более глубокое системное противоречие в американской технологической политике.
С одной стороны — стремление обеспечить стране лидерство в области ИИ, стимулировать коммерческое внедрение и не отдать рынок конкурентам. С другой — нарастающее беспокойство по поводу безопасности, стратегической зависимости государственных и критических структур от частных компаний. Anthropic оказался в эпицентре этого конфликта.
Для самой компании ситуация несёт двойной сигнал. Неформальная поддержка со стороны чиновников Трампа может значительно ускорить проникновение в финансовый сектор и укрепить коммерческие позиции. Однако статус supply-chain risk в Пентагоне способен осложнить или полностью заблокировать доступ к государственным и оборонным контрактам — традиционно важному источнику выручки для крупных американских технологических компаний.
Последуют ли банки неформальным рекомендациям чиновников и возьмут ли на себя регуляторный риск, связанный с Anthropic, — покажет ближайшее время. Но сам факт публичного раздвоения сигналов внутри одной администрации красноречиво свидетельствует: регуляторный ландшафт вокруг ИИ остаётся глубоко нестабильным, а любые крупные вложения в конкретного вендора сегодня неизбежно несут в себе политический риск, который ещё недавно было принято игнорировать.