Meta разрабатывает собственные чипы для обучения моделей ИИ
Meta Platforms продолжает развивать программу собственных чипов, несмотря на недавние крупные сделки с ведущими производителями полупроводников. Финансовый дире

Компания, которая тратит десятки миллиардов долларов в год на инфраструктуру искусственного интеллекта, больше не хочет зависеть от чужих процессоров даже на самом критичном этапе — обучении моделей. Финансовый директор Meta Platforms подтвердил, что компания разрабатывает собственные чипы, предназначенные для тренировки будущих AI-моделей. Это заявление прозвучало на фоне недавно заключённых крупных контрактов с ведущими производителями полупроводников и сигнализирует о том, что стратегия Meta в области вычислительной инфраструктуры становится значительно более амбициозной.
Чтобы понять масштаб этого шага, нужно разобраться в контексте. До сих пор кастомные чипы Meta — прежде всего семейство MTIA — были ориентированы на инференс, то есть на запуск уже обученных моделей. Инференс — это задача попроще: модель уже знает, что делать, ей нужно лишь быстро и эффективно выдавать результаты. Обучение же — совершенно другой зверь. Тренировка крупной языковой модели требует колоссальных вычислительных мощностей, сложнейшей координации между тысячами процессоров и выдающейся пропускной способности памяти. Именно поэтому NVIDIA с её GPU серий H100 и B200 до сих пор остаётся практически безальтернативным поставщиком для этого этапа. Заявить о разработке собственного тренировочного чипа — значит бросить вызов этой монополии.
Мотивация Meta вполне прозрачна и измеряется конкретными цифрами. В 2025 году компания потратила на капитальные расходы, преимущественно связанные с AI-инфраструктурой, порядка 35-40 миллиардов долларов. Значительная часть этих средств ушла на закупку GPU у NVIDIA. При таких масштабах даже незначительное снижение зависимости от внешнего поставщика может сэкономить миллиарды. Но дело не только в деньгах. Собственные чипы дают возможность оптимизировать архитектуру под конкретные нужды: под архитектуру моделей LLaMA, под специфику распределённого обучения в дата-центрах Meta, под уникальные паттерны нагрузки. Универсальные GPU от NVIDIA великолепны, но они именно универсальны — а значит, неизбежно несут в себе компромиссы.
Примечательно, что это заявление прозвучало после того, как Meta заключила крупные сделки с ведущими чипмейкерами. Казалось бы, зачем инвестировать в собственные разработки, если партнёрства с Broadcom, TSMC и другими игроками уже обеспечивают доступ к передовым технологиям? Ответ кроется в стратегическом горизонте планирования. Разработка тренировочного чипа с нуля — процесс, занимающий три-пять лет от концепции до массового производства. Meta играет вдолгую: текущие контракты закрывают сегодняшние потребности, а собственный кремний должен обеспечить независимость в следующем десятилетии. Это та же логика, которой следуют Google с TPU, Amazon с Trainium и Microsoft с Maia — крупнейшие потребители вычислительных мощностей не могут позволить себе стратегическую зависимость от одного поставщика.
Впрочем, путь от амбиций до работающего тренировочного чипа усеян техническими и организационными сложностями. Google потребовалось почти десятилетие, чтобы довести TPU до уровня, на котором компания смогла обучать свои крупнейшие модели преимущественно на собственном железе. Amazon, несмотря на значительные инвестиции в Trainium, до сих пор сталкивается с вопросами о программной экосистеме и совместимости. Создать чип — это полдела. Нужно выстроить полный стек: компиляторы, фреймворки, инструменты отладки, системы мониторинга. Нужно убедить собственных исследователей, привыкших к CUDA и PyTorch, перейти на новую платформу. Нужно обеспечить надёжность на уровне тысяч чипов, работающих в связке месяцами без сбоев.
Для NVIDIA это заявление — ещё один тревожный сигнал в длинной серии подобных. Каждый крупный клиент, объявляющий о собственной чиповой программе, потенциально сокращает адресный рынок компании Дженсена Хуанга. Однако опыт показывает, что реальное замещение происходит медленно. Даже Google, обладающая самыми зрелыми кастомными AI-чипами в индустрии, продолжает закупать GPU у NVIDIA для определённых задач. Скорее всего, Meta движется к гибридной модели, где собственные чипы постепенно берут на себя всё большую долю нагрузки, а закупки у сторонних поставщиков сохраняются как страховка и дополнение.
Решение Meta разрабатывать тренировочные чипы — это не просто корпоративная новость, а индикатор фундаментального сдвига в индустрии. Эпоха, когда один поставщик мог контролировать вычислительную основу всей AI-революции, подходит к концу. Крупнейшие технологические компании мира последовательно выстраивают вертикальную интеграцию — от моделей и данных до самого кремния, на котором всё это работает. Вопрос уже не в том, сможет ли Meta создать конкурентоспособный тренировочный чип, а в том, насколько быстро ей это удастся — и как это перекроит карту многомиллиардного рынка AI-инфраструктуры.