Hugging Face Blog→ оригинал

Hugging Face adiciona DeepInfra aos Inference Providers para executar modelos via API unificada

Hugging Face adicionou DeepInfra aos Inference Providers no Hub. Modelos DeepSeek, Kimi e GLM podem agora ser executados diretamente a partir das páginas de mod

Hugging Face adiciona DeepInfra aos Inference Providers para executar modelos via API unificada
Источник: Hugging Face Blog. Коллаж: Hamidun News.

Hugging Face добавила DeepInfra в список Inference Providers на Hub. Теперь разработчики могут запускать модели, доступные через DeepInfra, прямо со страниц моделей, через клиентские SDK и единый роутер Hugging Face без отдельной кастомной интеграции.

Что запустили

Новая интеграция расширяет экосистему серверлес-инференса внутри Hugging Face. DeepInfra стала поддерживаемым провайдером на Hub, а значит её модели можно выбирать там же, где разработчики уже ищут датасеты, карточки моделей и готовые сниппеты для запуска. В самом анонсе DeepInfra описывается как платформа AI-inference с более чем 100 моделями и одной из самых низких цен за токен на рынке.

Для Hugging Face это ещё один шаг к модели, где Hub работает не только как каталог, но и как единая точка запуска моделей. На старте интеграция покрывает разговорные сценарии и обычную text generation. Через DeepInfra на Hugging Face уже можно обращаться к популярным open-weight моделям вроде DeepSeek V4, Kimi-K2.

6 и GLM-5.1. При этом команда сразу обозначила следующий этап: в будущем через этот же слой должны появиться text-to-image, text-to-video, embeddings и другие типы задач.

То есть речь не про разовую интеграцию одной-двух LLM, а про подключение более широкого вычислительного канала к инфраструктуре Hugging Face.

Как это работает С точки зрения пользователя всё встроено в привычный интерфейс Hub.

В настройках аккаунта можно добавить собственные ключи провайдеров и задать порядок предпочтения, а на страницах моделей Hugging Face показывает совместимых внешних провайдеров и генерирует под них виджеты и кодовые примеры. Если ключ не указан, запросы могут идти через сам Hugging Face. Если ключ есть, вызовы отправляются напрямую в DeepInfra. Это убирает лишнюю ручную настройку и делает переключение между провайдерами заметно проще.

  • Свой API-ключ DeepInfra для прямых вызовов без посредника Режим routed by HF, когда отдельный ключ провайдера не нужен Сортировка провайдеров по пользовательскому приоритету Один и тот же подход в интерфейсе Hub, Python SDK и JavaScript SDK Подключение к популярным agent harnesses без дополнительной обвязки Для кода схема тоже максимально простая. DeepInfra доступна через `huggingface_hub` для Python и `@huggingface/inference` для JavaScript, а в примерах из анонса используется OpenAI-совместимый клиент с базовым URL `https://router.huggingface.co/v1` и токеном Hugging Face. Модель указывается в формате `model:provider`, например для вызова DeepSeek через DeepInfra. Отдельно подчёркивается, что интеграция уже работает в ряде agent harnesses, так что модели можно подключать не только в сыром коде, но и в агентных инструментах поверх общего API.

Цены и доступ С биллингом Hugging Face оставила два понятных сценария.

Если разработчик использует собственный ключ DeepInfra, оплата идёт на стороне DeepInfra по её тарифам. Если запрос маршрутизируется через Hugging Face Hub, списание проходит через аккаунт Hugging Face, но без дополнительной наценки со стороны платформы: компания пишет, что просто транслирует стандартную стоимость API провайдера. Для команд это важная деталь, потому что единый роутер не превращается в ещё один ценовой слой поверх уже существующей инфраструктуры.

Есть и понятный способ протестировать интеграцию без больших затрат. Пользователи тарифа PRO получают по 2 доллара inference-кредитов в месяц, которые можно тратить у разных провайдеров внутри этой системы. У бесплатных аккаунтов тоже есть небольшой лимит на инференс, хотя Hugging Face прямо подталкивает активных пользователей переходить на PRO.

В практическом смысле это снижает порог входа: можно быстро сравнить DeepInfra с другими провайдерами на одних и тех же моделях, не собирая отдельный стенд и не настраивая несколько разных SDK.

Что это значит

Hugging Face всё заметнее превращает Hub в слой оркестрации поверх нескольких AI-провайдеров, а не просто в витрину моделей. Для разработчиков это означает меньше ручной интеграции, быстрее тестирование open-weight LLM и более простой путь к мультипровайдерной архитектуре без переписывания клиентского кода.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…