TNW→ оригинал

Google construit une chaîne d'approvisionnement de puces avec quatre partenaires pour défier Nvidia dans l'inférence d'IA

Google forme une chaîne d'approvisionnement de puces d'IA avec quatre partenaires pour défier Nvidia en inférence. Les partenaires incluent Broadcom, MediaTek,

Google construit une chaîne d'approvisionnement de puces avec quatre partenaires pour défier Nvidia dans l'inférence d'IA
Источник: TNW. Коллаж: Hamidun News.

Google объявила о строительстве наиболее диверсифицированной в AI-индустрии цепочки поставок кастомных чипов — с четырьмя дизайн-партнёрами и роадмапом до конца 2027 года. Компания делает ставку на то, чтобы снизить зависимость облачного рынка от Nvidia в сегменте AI-инференса. В партнёрской сети Google — четыре крупных игрока: Broadcom, MediaTek, Marvell и Intel.

Каждый отвечает за отдельное направление в архитектуре и производстве чипов. Стратегия была детально раскрыта накануне Google Cloud Next — ключевого ежегодного события компании для корпоративных клиентов и партнёров. Первым продуктом этой экосистемы стал Ironwood TPU — чип нового поколения, который уже поставляется в количестве миллионов штук.

Это первый сигнал того, что Google перестаёт быть просто потребителем чужого железа и планомерно превращается в самодостаточного игрока на рынке AI-инфраструктуры. Финальной точкой роадмапа обозначены чипы TPU v8, которые будут производиться по техпроцессу TSMC 2нм и появятся во второй половине 2027 года. Стратегия Google разбивает следующие поколения TPU на несколько независимых потоков — по дизайн-партнёрам и производственным мощностям.

Такой подход страхует от перебоев в поставках, характерных для монозависимости от одного вендора, и даёт гибкость в масштабировании производительности под разные задачи инференса. Инференс — то есть запуск уже обученных моделей для генерации ответов пользователям — стал главным полем битвы AI-чипового рынка в 2025–2026 годах. Именно здесь сконцентрирован основной спрос крупных облачных провайдеров: обучение модели происходит один раз, а инференс идёт непрерывно.

Nvidia сохраняет доминирование благодаря GPU архитектуре и зрелой экосистеме CUDA, однако кастомные TPU от Google традиционно показывают лучшую энергоэффективность на задачах трансформерных моделей. Для рынка это означает усиление конкуренции в сегменте облачного AI-железа. Если Google удастся масштабировать собственную цепочку до нужных объёмов, её клиенты получат реальную альтернативу GPU-кластерам Nvidia — с потенциально более низкой стоимостью инференса на токен и меньшей зависимостью от единственного поставщика.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…