AI crea una demanda 'insaciable' de memoria: CEO de Alger sobre el auge de los semiconductores
El CEO de Alger, Dan Chung, calificó la demanda de memoria de 'insaciable' debido al boom de la AI. Cada nuevo modelo de AI requiere exponencialmente más memori

Dan Chung, CEO del fondo de inversión Alger, declaró a Bloomberg que la demanda de memoria es 'insaciable' y la vinculó directamente al desarrollo explosivo de la inteligencia artificial. Según Chung, esto está redefiniendo todo el panorama de las inversiones tecnológicas y obligando a reevaluar dónde buscar ganancias en el auge de la IA.
Por Qué la IA Requiere Tanta Memoria
Los modernos modelos de lenguaje grande requieren petabytes de datos para el entrenamiento. Cada parámetro del modelo es un fragmento de memoria. Una única ejecución de entrenamiento en cientos de miles de GPUs requiere coordinación entre petabytes de DRAM y memoria de alto ancho de banda rápida (HBM). Para servir simultáneamente a millones de usuarios, los centros de datos despliegan decenas de terabytes de VRAM. La arquitectura Transformer resulta en un crecimiento lineal del consumo de memoria con cada duplicación del tamaño del modelo — una ley de escala que no puede ser derogada. Los centros de datos que ejecutan inference 24/7 consumen memoria como un agujero negro, devorándola en cantidades masivas.
Quién Alimenta la Máquina
La demanda viene no solo para GPUs como NVIDIA H100, sino también para DRAM, HBM (High Bandwidth Memory) y almacenamiento de larga vida. Compañías como Micron, Samsung y SK Hynix están viendo pedidos récord de chips de memoria — contratos que se extienden 2-3 años adelante. Los fabricantes de memoria están experimentando el mayor aumento de demanda en dos décadas. Las fábricas están operando a capacidad máxima, luchando por mantenerse al día con la demanda.
- Entrenamiento de modelos: petabytes de memoria para cada actualización
- Inference a escala: múltiples copias de modelos distribuidas entre servidores
- Bases de datos vectoriales: representaciones incrustadas para RAG consumen memoria exponencialmente
- Fine-tuning: modelos personalizados para cada cliente corporativo
Tendencia de Inversión
Dan Chung enfatiza que el valor en la pila de IA no está en los propios chips de procesamiento, sino en el ecosistema de memoria que los rodea. Los inversores que anteriormente miraban solo a NVIDIA y nuevas startups de IA ahora observan más de cerca a los fabricantes de memoria, controladores y soluciones de refrigeración. Este es un ciclo de demanda a largo plazo — no una tendencia ni especulación, sino una necesidad arquitectónica incorporada en la naturaleza misma de los modelos de lenguaje grande.
"La IA no puede desarrollarse sin memoria.
Esto no es una opción, es una limitación", dice en la entrevista.
Qué Significa Esto
La memoria de semiconductores se está convirtiendo en el nuevo 'ferrocarril' — la infraestructura básica sobre la cual se construyen todas las demás tecnologías. Las inversiones se están desplazando no hacia las startups de IA más brillantes, sino hacia empresas que proporcionan palas y picos para la fiebre del oro de la IA. Esto significa demanda a largo plazo, protección contra la especulación y visibilidad de ingresos para muchos años por venir.