Google construye cadena de suministro de chips con cuatro socios para desafiar a Nvidia en inferencia de IA
Google está formando una cadena de suministro de chips de IA con cuatro socios para desafiar a Nvidia en inferencia. Los socios incluyen Broadcom, MediaTek, Mar

Google объявила о строительстве наиболее диверсифицированной в AI-индустрии цепочки поставок кастомных чипов — с четырьмя дизайн-партнёрами и роадмапом до конца 2027 года. Компания делает ставку на то, чтобы снизить зависимость облачного рынка от Nvidia в сегменте AI-инференса. В партнёрской сети Google — четыре крупных игрока: Broadcom, MediaTek, Marvell и Intel.
Каждый отвечает за отдельное направление в архитектуре и производстве чипов. Стратегия была детально раскрыта накануне Google Cloud Next — ключевого ежегодного события компании для корпоративных клиентов и партнёров. Первым продуктом этой экосистемы стал Ironwood TPU — чип нового поколения, который уже поставляется в количестве миллионов штук.
Это первый сигнал того, что Google перестаёт быть просто потребителем чужого железа и планомерно превращается в самодостаточного игрока на рынке AI-инфраструктуры. Финальной точкой роадмапа обозначены чипы TPU v8, которые будут производиться по техпроцессу TSMC 2нм и появятся во второй половине 2027 года. Стратегия Google разбивает следующие поколения TPU на несколько независимых потоков — по дизайн-партнёрам и производственным мощностям.
Такой подход страхует от перебоев в поставках, характерных для монозависимости от одного вендора, и даёт гибкость в масштабировании производительности под разные задачи инференса. Инференс — то есть запуск уже обученных моделей для генерации ответов пользователям — стал главным полем битвы AI-чипового рынка в 2025–2026 годах. Именно здесь сконцентрирован основной спрос крупных облачных провайдеров: обучение модели происходит один раз, а инференс идёт непрерывно.
Nvidia сохраняет доминирование благодаря GPU архитектуре и зрелой экосистеме CUDA, однако кастомные TPU от Google традиционно показывают лучшую энергоэффективность на задачах трансформерных моделей. Для рынка это означает усиление конкуренции в сегменте облачного AI-железа. Если Google удастся масштабировать собственную цепочку до нужных объёмов, её клиенты получат реальную альтернативу GPU-кластерам Nvidia — с потенциально более низкой стоимостью инференса на токен и меньшей зависимостью от единственного поставщика.