Bloomberg Tech→ original

AI cria demanda 'insaciável' por memória: CEO da Alger sobre o boom dos semicondutores

O CEO da Alger, Dan Chung, chamou a demanda por memória de 'insaciável' por causa do boom da AI. Cada novo modelo de AI exige exponencialmente mais memória para

AI cria demanda 'insaciável' por memória: CEO da Alger sobre o boom dos semicondutores
Fonte: Bloomberg Tech. Colagem: Hamidun News.
◐ Ouvir artigo

Dan Chung, CEO do fundo de investimento Alger, disse à Bloomberg que a demanda por memória é 'insaciável' e a vinculou diretamente ao desenvolvimento explosivo da inteligência artificial. Segundo Chung, isso está redefinindo toda a paisagem dos investimentos tecnológicos e forçando uma reavaliação de onde procurar lucros no boom de IA.

Por Que a IA Requer Tanta Memória

Modelos modernos de linguagem grande requerem petabytes de dados para treinamento. Cada parâmetro do modelo é um pedaço de memória. Uma única execução de treinamento em centenas de milhares de GPUs requer coordenação entre petabytes de DRAM e memória de alta largura de banda rápida (HBM). Para servir simultaneamente milhões de usuários, os data centers usam dezenas de terabytes de VRAM. A arquitetura Transformer resulta em crescimento linear do consumo de memória a cada duplicação do tamanho do modelo — uma lei de escala que não pode ser revogada. Data centers executando inference 24/7 consomem memória como um buraco negro, devorando-a em quantidades massivas.

Quem Alimenta a Máquina

A demanda vem não apenas por GPUs como NVIDIA H100, mas também por DRAM, HBM (High Bandwidth Memory) e armazenamento de longa duração. Empresas como Micron, Samsung e SK Hynix estão vendo pedidos recordes por chips de memória — contratos com 2-3 anos de antecedência. Fabricantes de memória estão experimentando o maior aumento de demanda em duas décadas. Fábricas estão operando em capacidade máxima, lutando para acompanhar a demanda.

  • Treinamento de modelos: petabytes de memória para cada atualização
  • Inference em larga escala: múltiplas cópias de modelos distribuídas entre servidores
  • Bancos de dados vetoriais: representações incorporadas para RAG consomem memória exponencialmente
  • Fine-tuning: modelos personalizados para cada cliente corporativo

Tendência de Investimento

Dan Chung enfatiza que o valor na pilha de IA não está nos próprios chips de processamento, mas no ecossistema de memória ao seu redor. Investidores que anteriormente olhavam apenas para NVIDIA e novas startups de IA agora observam mais de perto fabricantes de memória, controladores e soluções de resfriamento. Esse é um ciclo de demanda de longo prazo — não uma tendência e não especulação, mas uma necessidade arquitetônica embutida na própria natureza dos modelos de linguagem grande.

"IA não pode se desenvolver sem memória.

Isso não é uma opção, é uma limitação", diz ele na entrevista.

O Que Isso Significa

A memória de semicondutores está se tornando a nova 'ferrovia' — a infraestrutura básica sobre a qual todas as outras tecnologias são construídas. Os investimentos estão se deslocando não para as startups de IA mais brilhantes, mas para empresas que fornecem pás e picaretas para a corrida do ouro de IA. Isso significa demanda de longo prazo, proteção contra especulação e visibilidade de receitas para muitos anos por vir.

ZK
Hamidun News
Notícias de AI sem ruído. Seleção editorial diária de mais de 400 fontes. Produto de Zhemal Khamidun, Head of AI na Alpina Digital.
O que você acha?
Carregando comentários…