Hugging Face: Chinese open-source models overtake the US in AI ecosystem downloads
Hugging Face released its spring snapshot of open-source AI, and the main takeaway is simple: the ecosystem has become mainstream, and China has taken the lead

Hugging Face опубликовала весенний обзор состояния open-source ИИ, и по этим данным открытая экосистема уже перестала быть нишей для энтузиастов. За последний год она резко выросла по масштабу, а центр тяжести всё заметнее смещается в сторону Китая, независимых разработчиков и более практичных моделей, которые реально разворачивают в проде.
Экосистема стала массовой
По данным Hugging Face, к 2025 году платформа выросла до 13 миллионов пользователей, более чем 2 миллионов публичных моделей и свыше 500 тысяч открытых датасетов. Важно не только количество. Команда пишет, что пользователи всё чаще не просто скачивают готовые модели, а выпускают поверх них производные артефакты: fine-tune, адаптеры, бенчмарки и прикладные приложения.
То есть open source в ИИ стал не библиотекой для просмотра, а средой активной сборки и переиспользования. При этом экосистема распределена очень неравномерно. Примерно у половины моделей на Hugging Face меньше 200 загрузок за всё время, а почти 49,6% всех загрузок приходится всего на 200 самых популярных моделей.
Это хорошо показывает, как устроен рынок: сверху есть несколько сверхзаметных семейств, а ниже — тысячи узких, локальных и прикладных проектов. 13 млн пользователей на платформе Более 2 млн публичных моделей Свыше 500 тыс. публичных датасетов 49,6% загрузок приходятся на топ-200 моделей * У примерно половины моделей меньше 200 загрузок ## Китай и независимые разработчики Главный географический сдвиг в отчёте — Китай уже обогнал США и по месячным, и по совокупным загрузкам моделей.
За последний год китайские модели получили 41% всех загрузок на платформе. Особенно быстро выросло число новых репозиториев и релизов от крупных компаний: Baidu перешла от нуля релизов на Hub в 2024 году к более чем 100 в 2025-м, а ByteDance и Tencent увеличили активность в восемь-девять раз. После успеха DeepSeek R1 китайская экосистема явно сделала ставку именно на открытые веса.
Не менее важен другой сдвиг: доля индустрии в общей разработке упала примерно с 70% до 37%, если сравнивать период до 2022 года и 2025 год. На этом фоне независимые разработчики и небольшие коллективы выросли с 17% до 39% всех загрузок, а в отдельные периоды даже давали больше половины использования. Именно эти игроки часто делают квантизацию, адаптацию и переупаковку базовых моделей под реальные сценарии.
Фактически они стали отдельным распределительным слоем между создателями foundation-моделей и конечными пользователями.
Побеждают доступные модели
Отчёт подчёркивает, что реальный спрос всё сильнее смещается от гигантских систем к моделям, которые проще и дешевле запускать. Даже с поправкой на количество релизов модели размером 1–9B скачивают примерно лишь в четыре раза чаще, чем системы на 100B+, а это намного меньший разрыв, чем можно было ожидать по шуму вокруг frontier-моделей. Средняя вовлечённость после релиза вообще держится около шести недель, поэтому без постоянных обновлений даже сильные семейства быстро теряют внимание рынка.
На практике это означает, что побеждают не только самые мощные модели, но и самые удобные для доработки. У Alibaba семейство Qwen уже дало более 113 тысяч производных моделей, а если считать все модели с тегом Qwen, их больше 200 тысяч. Параллельно быстро растут новые субсообщества.
В робототехнике число датасетов за год выросло с 1 145 до 26 991, сделав категорию крупнейшей на платформе. В научных задачах open-source модели всё активнее применяют для работы с белками, молекулами и исследовательскими данными. Всё это дополняется сдвигом к более дешёвому железу, квантизации и запуску моделей ближе к edge-инфраструктуре.
Что это значит
Open-source ИИ входит в фазу, где победа определяется не только качеством базовой модели, но и скоростью адаптации, числом производных сборок и удобством локального запуска. Для компаний это сигнал смотреть не только на закрытые frontier-системы, но и на открытые экосистемы вокруг Qwen, DeepSeek, Gemma и других семейств, потому что именно там сейчас быстрее всего появляется прикладная ценность.