AI cria demanda 'insaciável' por memória: CEO da Alger sobre o boom dos semicondutores
O CEO da Alger, Dan Chung, chamou a demanda por memória de 'insaciável' por causa do boom da AI. Cada novo modelo de AI exige exponencialmente mais memória para

Dan Chung, CEO do fundo de investimento Alger, disse à Bloomberg que a demanda por memória é 'insaciável' e a vinculou diretamente ao desenvolvimento explosivo da inteligência artificial. Segundo Chung, isso está redefinindo toda a paisagem dos investimentos tecnológicos e forçando uma reavaliação de onde procurar lucros no boom de IA.
Por Que a IA Requer Tanta Memória
Modelos modernos de linguagem grande requerem petabytes de dados para treinamento. Cada parâmetro do modelo é um pedaço de memória. Uma única execução de treinamento em centenas de milhares de GPUs requer coordenação entre petabytes de DRAM e memória de alta largura de banda rápida (HBM). Para servir simultaneamente milhões de usuários, os data centers usam dezenas de terabytes de VRAM. A arquitetura Transformer resulta em crescimento linear do consumo de memória a cada duplicação do tamanho do modelo — uma lei de escala que não pode ser revogada. Data centers executando inference 24/7 consomem memória como um buraco negro, devorando-a em quantidades massivas.
Quem Alimenta a Máquina
A demanda vem não apenas por GPUs como NVIDIA H100, mas também por DRAM, HBM (High Bandwidth Memory) e armazenamento de longa duração. Empresas como Micron, Samsung e SK Hynix estão vendo pedidos recordes por chips de memória — contratos com 2-3 anos de antecedência. Fabricantes de memória estão experimentando o maior aumento de demanda em duas décadas. Fábricas estão operando em capacidade máxima, lutando para acompanhar a demanda.
- Treinamento de modelos: petabytes de memória para cada atualização
- Inference em larga escala: múltiplas cópias de modelos distribuídas entre servidores
- Bancos de dados vetoriais: representações incorporadas para RAG consomem memória exponencialmente
- Fine-tuning: modelos personalizados para cada cliente corporativo
Tendência de Investimento
Dan Chung enfatiza que o valor na pilha de IA não está nos próprios chips de processamento, mas no ecossistema de memória ao seu redor. Investidores que anteriormente olhavam apenas para NVIDIA e novas startups de IA agora observam mais de perto fabricantes de memória, controladores e soluções de resfriamento. Esse é um ciclo de demanda de longo prazo — não uma tendência e não especulação, mas uma necessidade arquitetônica embutida na própria natureza dos modelos de linguagem grande.
"IA não pode se desenvolver sem memória.
Isso não é uma opção, é uma limitação", diz ele na entrevista.
O Que Isso Significa
A memória de semicondutores está se tornando a nova 'ferrovia' — a infraestrutura básica sobre a qual todas as outras tecnologias são construídas. Os investimentos estão se deslocando não para as startups de IA mais brilhantes, mas para empresas que fornecem pás e picaretas para a corrida do ouro de IA. Isso significa demanda de longo prazo, proteção contra especulação e visibilidade de receitas para muitos anos por vir.