Meta готовит четыре поколения чипов MTIA, чтобы снизить зависимость от Nvidia и AMD
Meta уже вывела MTIA 300 в продакшен и готовит еще три поколения собственных AI-чипов до конца 2027 года. Компания хочет удешевить инференс и меньше зависеть от

Meta резко ускоряет собственную чиповую программу: компания уже запустила MTIA 300 в продакшен и собирается вывести еще три поколения ускорителей до конца 2027 года. Цель простая — не зависеть только от Nvidia и AMD в гонке за вычислениями для рекомендаций, рекламы и генеративного AI.
Зачем Meta свои чипы Нагрузка на инфраструктуру Meta растет сразу по нескольким направлениям.
Компании нужны мощности и для привычных систем ранжирования контента в Facebook и Instagram, и для генеративного AI, который отвечает на запросы, создает изображения и поддерживает другие продукты экосистемы. Покупать все это только у внешних поставщиков слишком дорого и рискованно: спрос на ускорители высокий, сроки поставок длинные, а маржа сильно зависит от цен на чужое железо. Поэтому Meta делает ставку на собственную линейку MTIA — Meta Training and Inference Accelerator. Она не отказывается от партнеров и уже заключила многомиллиардные сделки с Nvidia и AMD, но параллельно пытается закрыть часть задач своим кремнием. Логика в том, что внутренние чипы не обязаны быть универсальными, как коммерческие GPU. Их можно точнее подогнать под конкретные сценарии Meta и за счет этого снизить стоимость инференса.
Дорожная карта MTIA Сейчас у Meta уже есть довольно понятный план на несколько поколений вперед.
Компания говорит, что может выпускать новый чип примерно раз в шесть месяцев — заметно быстрее обычного цикла в индустрии, где между поколениями часто проходит год или два. Помогает модульная архитектура: новые ускорители можно встраивать в уже подготовленные стойки и сетевую инфраструктуру дата-центров. * MTIA 300 уже работает в продакшене и используется для обучения моделей ранжирования и рекомендаций.
MTIA 400 прошел лабораторные тесты и готовится к развертыванию в дата-центрах. MTIA 450 проектируется прежде всего под AI-инференс и должен массово выйти в начале 2027 года. * MTIA 500 запланирован на вторую половину 2027 года как следующее усиление той же линии.
По данным Meta, переход от MTIA 300 к MTIA 500 должен дать примерно 4,5-кратный рост пропускной способности HBM-памяти и 25-кратный рост вычислительной производительности. Отдельный акцент компания делает на инференсе: именно эта стадия, когда модель уже отвечает пользователю, становится самым дорогим и массовым сценарием для сервисов с миллиардной аудиторией.
«За последние два-три месяца темп развития AI снова резко ускорился, и
кремниевые программы должны успевать за этой эволюцией нагрузок».
Где узкие места
Проблема в том, что разработка собственных чипов — не просто дорогая, а очень медленная и рискованная история. От проектирования до выпуска на фабрике обычно проходит около двух лет, а сама доводка продукта стоит миллиарды долларов. Такой проект окупается только если компания умеет загружать железо в огромных масштабах и точно понимает, какие задачи будут актуальны к моменту запуска.
Ранее сообщалось, что Meta отказалась от наиболее продвинутого обучающего чипа Olympus после проблем с дизайном и сместила фокус на более простую версию. Чтобы ускорить программу, Meta пыталась купить южнокорейский стартап FuriosaAI за 800 миллионов долларов, а после отказа приобрела Rivos вместе с более чем 400 сотрудниками. Это показывает, что дефицит в этой гонке — не только у GPU, но и у инженеров, которые умеют делать сложный дата-центровый кремний.
Что это значит
Meta строит не замену Nvidia «одним большим чипом», а гибридную модель: часть инфраструктуры она по-прежнему купит снаружи, а часть будет постепенно переносить на собственные MTIA. Если компания выдержит темп релизов и реально удешевит инференс, она получит важное преимущество в AI-гонке: больше контроля над себестоимостью, сроками и запуском новых функций для миллиардов пользователей.