Rapport Stanford HAI : l'écart USA-Chine en IA s'est presque refermé, la sécurité prend du retard
Stanford HAI a documenté un tournant dans la course à l'IA : d'ici mars 2026, l'avantage des États-Unis sur la Chine en matière de qualité des modèles s'est réd

Доклад Stanford HAI AI Index 2026 рушит удобный миф о безусловном лидерстве США в искусственном интеллекте: по качеству передовых моделей Китай почти догнал американские компании, а по части публичной проверки безопасности рынок по-прежнему сильно отстаёт от собственных амбиций. В 2026-м отчёте AI Index, опубликованном Stanford HAI 13 апреля 2026 года, собраны данные о производительности моделей, инвестициях, научных публикациях, патентах, общественных настроениях и практиках responsible AI. Главный вывод звучит неприятно для американской индустрии: устойчивого технологического отрыва США больше не видно.
По данным Stanford, американские и китайские модели несколько раз менялись местами в верхней части рейтингов с начала 2025 года. В феврале 2025 года DeepSeek-R1 ненадолго сравнялся с лучшей американской моделью, а к марту 2026 года лидерство топовой модели Anthropic сократилось до 2,7%. Это не значит, что США потеряли все преимущества.
Американские компании всё ещё выпускают больше топовых моделей: 50 против 30 у Китая по итогам 2025 года. У США также выше качество патентов и несопоставимо больше частных инвестиций. Но Китай уже лидирует по объёму AI-публикаций, доле цитирований и числу выданных патентов.
Иначе говоря, рынок перестаёт быть историей про одного бесспорного лидера. Теперь это плотная гонка, где отрыв может меняться после каждого крупного релиза. Отдельно Stanford указывает на структурную уязвимость американского преимущества.
В США сосредоточено 5427 дата-центров — это более чем в десять раз больше, чем у любой другой страны. Но почти все передовые AI-чипы для этой инфраструктуры производит одна компания, TSMC, на Тайване. Расширение производства TSMC в США уже началось в 2025 году, однако сама логика цепочки поставок остаётся хрупкой: доминирование в вычислениях не равно контролю над всем технологическим стеком.
Ещё важнее то, что разрыв между возможностями моделей и тем, как индустрия измеряет риски, не сокращается, а растёт. Почти все разработчики фронтирных моделей публикуют результаты по capability-бенчмаркам вроде MMLU или SWE-bench, но данные по responsible AI выходят фрагментарно. В таблицах Stanford по safety, fairness, factuality и human agency много пустых ячеек, поэтому внешне сравнить модели по рискам часто просто невозможно.
Это не означает, что лаборатории вообще не занимаются внутренним red teaming или alignment-тестами. Проблема в другом: эти проверки редко раскрываются в едином и сопоставимом формате. На этом фоне число документированных AI-инцидентов продолжает расти.
AI Incident Database зафиксировала 362 инцидента в 2025 году против 233 годом ранее, а до 2022 года таких случаев было меньше сотни в год. Организации тоже не выглядят готовыми к масштабу проблемы. В совместном опросе AI Index и McKinsey доля компаний, назвавших свою реакцию на AI-инциденты отличной, упала с 28% до 18% за год, а доля тех, кто сообщил о трёх-пяти инцидентах, выросла с 30% до 50%.
Дополнительная сложность в том, что улучшение одной метрики responsible AI может ухудшать другую: например, рост безопасности способен снижать точность, а усиление приватности — бить по fairness. Общественное восприятие тоже становится противоречивее. По миру 59% опрошенных считают, что AI-продукты приносят больше пользы, чем вреда, но одновременно 52% говорят, что такие сервисы вызывают у них тревогу.
Эксперты заметно оптимистичнее обычных пользователей: позитивного влияния AI на работу ждут 73% специалистов против 23% населения США, на экономику — 69% против 21%, на медицину — 84% против 44%. При этом именно в США зафиксирован самый низкий уровень доверия к собственному государству в вопросе ответственного регулирования AI — 31% при глобальном среднем 54%. Вывод из доклада простой: спор о том, кто сегодня впереди по качеству модели, становится менее важным, чем вопрос, кто умеет делать AI проверяемым, безопасным и устойчивым к сбоям.
США сохраняют масштаб, капитал и инфраструктуру, Китай — темп и научно-патентную массу. Но настоящая незакрытая дистанция проходит не между двумя странами, а между скоростью развития моделей и зрелостью механизмов контроля вокруг них.