Bloomberg Tech→ оригинал

ИИ создаёт 'ненасытный' спрос на память: CEO Alger о буме в полупроводниках

CEO Alger Dan Chung назвал спрос на память 'ненасытным' из-за ИИ-бума. Каждый новый AI-модель требует экспоненциально больше памяти для обучения и инференса. Ин

ИИ создаёт 'ненасытный' спрос на память: CEO Alger о буме в полупроводниках
Источник: Bloomberg Tech. Коллаж: Hamidun News.
◐ Слушать статью

CEO инвестфонда Alger Dan Chung в интервью Bloomberg назвал спрос на память 'ненасытным' и прямо связал его с взрывным развитием искусственного интеллекта. По словам Чуна, это переопределяет весь ландшафт технологических инвестиций и вынуждает переоценить, где искать прибыль в AI-буме.

Почему ИИ требует столько памяти

Современные большие языковые модели требуют петабайты данных для обучения. Каждый параметр модели — это чанк памяти. Одна прогонка обучения на сотнях тысяч GPU требует координации между петабайтами DRAM и быстрой памяти высокой полосы (HBM). Для одновременного обслуживания миллионов пользователей дата-центры задействуют десятки ТБ VRAM. Transformer-архитектура выливается в линейный рост потребления памяти с каждым удвоением размера модели — закон масштабирования, который никто не отменит. Data centers, работающие на inference 24/7, потребляют память как чёрная дыра, поглощая её в огромных количествах.

Кто кормит машину

Спрос идёт не только на ГПУ вроде NVIDIA H100, но и на DRAM, HBM (High Bandwidth Memory) и долгоживущие хранилища. Компании вроде Micron, Samsung и SK Hynix видят рекордные заказы на чипы памяти — подряды на 2-3 года вперёд. Производители памяти переживают самый мощный рост спроса за два десятилетия. Заводы работают на предельной мощности, пытаясь угнаться за спросом.

  • Обучение моделей: петабайты памяти для каждого обновления Inference на масштабах: множество копий модели распределены по серверам Vector databases: встроенные представления для RAG съедают память экспоненциально * Fine-tuning: кастомные модели для каждого корпоративного клиента ## Инвестиционный тренд Dan Chung подчёркивает, что стоимость в AI-стеке не в самих чипах обработки, а в экосистеме памяти вокруг них. Инвесторы, которые раньше смотрели только на NVIDIA и новые AI-стартапы, теперь внимательнее следят за производителями памяти, контроллерами и cooling-решениями. Это длинный цикл спроса — не мода и не спекуляция, а архитектурная необходимость, вшитая в саму природу больших языковых моделей.
«ИИ не может развиваться без памяти.

Это не опция, это ограничение», — звучит в интервью.

Что это значит

Полупроводниковая память становится новой 'железной дорогой' — базовой инфраструктурой, на которой строятся все остальные технологии. Инвестиции сдвигаются не к самым блестящим AI-стартапам, а к компаниям, которые обеспечивают лопаты и кирки для AI-золотой лихорадки. Это значит долгосрочный спрос, защита от спекуляций и видимость доходов на многие годы вперёд.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Что вы думаете?
Загружаем комментарии…