AMD and Samsung expand HBM4 partnership for next-generation AI accelerators
AMD and Samsung have expanded their HBM4 partnership, the memory essential for the next generation of AI accelerators. The two companies signed a new memorandum
AMD и Samsung расширили партнёрство по HBM4 — следующему поколению высокоскоростной памяти для AI-ускорителей. Новый меморандум стороны подписали в Пхёнтхэке, где у Samsung расположен один из крупнейших комплексов по выпуску памяти.
О чём договорились
Слухи о визите главы AMD в Южную Корею подтвердились официально: компания сообщила о подписании нового меморандума о взаимопонимании с Samsung Electronics. Документ фиксирует расширение сотрудничества вокруг HBM4 — памяти, которая станет критически важной для будущих ускорителей искусственного интеллекта. Пока речь идёт не о запуске конкретного продукта, а о более плотной совместной работе на раннем этапе, когда определяются требования к памяти, совместимость и производственные планы.
Само место подписания тоже показательно. Стороны встретились в Пхёнтхэке, где у Samsung находится крупный производственный кластер по выпуску памяти. Для AMD это не просто символический жест: рынок AI-железа давно упирается не только в вычислительные мощности, но и в доступ к современным стекам памяти.
Чем быстрее растут модели и нагрузки, тем важнее для производителей ускорителей заранее резервировать технологические цепочки и выстраивать прямую координацию с поставщиками HBM.
Почему HBM4 важна HBM — это многослойная память с очень высокой
пропускной способностью, которая устанавливается рядом с вычислительным кристаллом и помогает ускорителю быстрее передавать данные. Для задач обучения и инференса больших моделей это один из ключевых компонентов: если памяти не хватает по скорости, объёму или энергоэффективности, общий прирост от более мощного чипа быстро упирается в потолок. Поэтому переход к HBM4 важен не сам по себе, а как часть следующего шага в развитии серверных AI-платформ.
Расширенное сотрудничество AMD и Samsung может повлиять сразу на несколько практических вещей: более раннюю настройку будущих ускорителей AMD под новое поколение памяти совместную валидацию тепловых, энергетических и сигнальных характеристик более предсказуемое планирование поставок для дата-центров и OEM-партнёров снижение рисков, связанных с дефицитом HBM в пиковые периоды спроса На фоне взрывного спроса на AI-инфраструктуру HBM стала одним из самых дефицитных элементов всей цепочки поставок. Конкуренция идёт уже не только за лучший GPU или ускоритель, но и за доступ к памяти, упаковке и производственным слотам. Поэтому такие соглашения часто играют стратегическую роль задолго до появления готовых карт и серверов на рынке.
Что получает рынок
Для Samsung это шанс укрепить позиции в самом чувствительном сегменте памяти для ИИ. Компания давно конкурирует за заказы на HBM, и углубление связи с AMD повышает её шансы быть заметным игроком в следующем поколении ускорителей. Для AMD выгода в другом: чем шире и глубже сеть технологических партнёров, тем выше устойчивость дорожной карты.
В сегменте, где задержка памяти может сорвать запуск целой линейки ускорителей, такая подстраховка особенно важна. Важно и то, что меморандум — это не финальный контракт на массовые поставки, а рамка для совместной работы. Но именно такие документы обычно показывают, где компании собираются концентрировать инженерные ресурсы в ближайшие кварталы.
Для клиентов AMD это сигнал, что компания заранее готовит основу под следующее поколение AI-ускорителей и не хочет оставаться зависимой от одного сценария поставок в момент, когда рынок требует всё больше вычислительной мощности.
Что это значит
Рынок AI-ускорителей всё сильнее зависит не только от архитектуры чипов, но и от доступа к памяти. Расширение партнёрства AMD и Samsung показывает: борьба за лидерство в ИИ теперь идёт и на уровне HBM4, где выигрывает не тот, у кого просто быстрее процессор, а тот, кто раньше соберёт устойчивую цепочку поставок.