Bloomberg Tech→ оригинал

Meta prépare quatre générations de puces MTIA pour réduire sa dépendance à Nvidia et AMD

Meta a déjà mis MTIA 300 en production et prépare encore trois générations de ses propres puces AI d’ici fin 2027. L’entreprise veut réduire le coût de l’infére

Meta prépare quatre générations de puces MTIA pour réduire sa dépendance à Nvidia et AMD
Источник: Bloomberg Tech. Коллаж: Hamidun News.
◐ Слушать статью

Meta резко ускоряет собственную чиповую программу: компания уже запустила MTIA 300 в продакшен и собирается вывести еще три поколения ускорителей до конца 2027 года. Цель простая — не зависеть только от Nvidia и AMD в гонке за вычислениями для рекомендаций, рекламы и генеративного AI.

Зачем Meta свои чипы Нагрузка на инфраструктуру Meta растет сразу по нескольким направлениям.

Компании нужны мощности и для привычных систем ранжирования контента в Facebook и Instagram, и для генеративного AI, который отвечает на запросы, создает изображения и поддерживает другие продукты экосистемы. Покупать все это только у внешних поставщиков слишком дорого и рискованно: спрос на ускорители высокий, сроки поставок длинные, а маржа сильно зависит от цен на чужое железо. Поэтому Meta делает ставку на собственную линейку MTIA — Meta Training and Inference Accelerator. Она не отказывается от партнеров и уже заключила многомиллиардные сделки с Nvidia и AMD, но параллельно пытается закрыть часть задач своим кремнием. Логика в том, что внутренние чипы не обязаны быть универсальными, как коммерческие GPU. Их можно точнее подогнать под конкретные сценарии Meta и за счет этого снизить стоимость инференса.

Дорожная карта MTIA Сейчас у Meta уже есть довольно понятный план на несколько поколений вперед.

Компания говорит, что может выпускать новый чип примерно раз в шесть месяцев — заметно быстрее обычного цикла в индустрии, где между поколениями часто проходит год или два. Помогает модульная архитектура: новые ускорители можно встраивать в уже подготовленные стойки и сетевую инфраструктуру дата-центров. * MTIA 300 уже работает в продакшене и используется для обучения моделей ранжирования и рекомендаций.

MTIA 400 прошел лабораторные тесты и готовится к развертыванию в дата-центрах. MTIA 450 проектируется прежде всего под AI-инференс и должен массово выйти в начале 2027 года. * MTIA 500 запланирован на вторую половину 2027 года как следующее усиление той же линии.

По данным Meta, переход от MTIA 300 к MTIA 500 должен дать примерно 4,5-кратный рост пропускной способности HBM-памяти и 25-кратный рост вычислительной производительности. Отдельный акцент компания делает на инференсе: именно эта стадия, когда модель уже отвечает пользователю, становится самым дорогим и массовым сценарием для сервисов с миллиардной аудиторией.

«За последние два-три месяца темп развития AI снова резко ускорился, и

кремниевые программы должны успевать за этой эволюцией нагрузок».

Где узкие места

Проблема в том, что разработка собственных чипов — не просто дорогая, а очень медленная и рискованная история. От проектирования до выпуска на фабрике обычно проходит около двух лет, а сама доводка продукта стоит миллиарды долларов. Такой проект окупается только если компания умеет загружать железо в огромных масштабах и точно понимает, какие задачи будут актуальны к моменту запуска.

Ранее сообщалось, что Meta отказалась от наиболее продвинутого обучающего чипа Olympus после проблем с дизайном и сместила фокус на более простую версию. Чтобы ускорить программу, Meta пыталась купить южнокорейский стартап FuriosaAI за 800 миллионов долларов, а после отказа приобрела Rivos вместе с более чем 400 сотрудниками. Это показывает, что дефицит в этой гонке — не только у GPU, но и у инженеров, которые умеют делать сложный дата-центровый кремний.

Что это значит

Meta строит не замену Nvidia «одним большим чипом», а гибридную модель: часть инфраструктуры она по-прежнему купит снаружи, а часть будет постепенно переносить на собственные MTIA. Если компания выдержит темп релизов и реально удешевит инференс, она получит важное преимущество в AI-гонке: больше контроля над себестоимостью, сроками и запуском новых функций для миллиардов пользователей.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…