AI crée une demande 'insatiable' de mémoire : le CEO d'Alger sur le boom des semi-conducteurs
Le CEO d'Alger, Dan Chung, a parlé d'une demande de mémoire 'insatiable' en raison du boom de l'AI. Chaque nouveau modèle d'AI nécessite exponentiellement plus

Dan Chung, PDG du fonds d'investissement Alger, a déclaré à Bloomberg que la demande de mémoire est 'insatiable' et l'a directement liée au développement explosif de l'intelligence artificielle. Selon Chung, cela redéfinit tout le paysage des investissements technologiques et force à réévaluer où chercher les profits dans le boom de l'IA.
Pourquoi l'IA Nécessite Tant de Mémoire
Les modèles de langage géants modernes nécessitent des pétaoctets de données pour l'entraînement. Chaque paramètre du modèle est un morceau de mémoire. Une seule exécution d'entraînement sur des centaines de milliers de GPU nécessite une coordination entre des pétaoctets de DRAM et une mémoire à large bande passante rapide (HBM). Pour servir simultanément des millions d'utilisateurs, les centres de données déploient des dizaines de téraoctets de VRAM. L'architecture Transformer se traduit par une croissance linéaire de la consommation de mémoire à chaque doublement de la taille du modèle — une loi d'échelle qui ne peut pas être abrogée. Les centres de données exécutant l'inference 24/7 consomment la mémoire comme un trou noir, la dévorant en quantités massives.
Qui Alimente la Machine
La demande porte non seulement sur les GPU comme NVIDIA H100, mais aussi sur la DRAM, HBM (High Bandwidth Memory) et le stockage de longue durée. Des entreprises comme Micron, Samsung et SK Hynix voient des commandes record de puces mémoire — des contrats s'étendant 2-3 ans à l'avance. Les fabricants de mémoire connaissent la plus forte augmentation de demande en deux décennies. Les usines fonctionnent à capacité maximale, luttant pour suivre la demande.
- Entraînement de modèles : pétaoctets de mémoire pour chaque mise à jour
- Inference à l'échelle : plusieurs copies de modèles distribuées sur les serveurs
- Bases de données vectorielles : les représentations intégrées pour RAG consomment la mémoire de façon exponentielle
- Fine-tuning : modèles personnalisés pour chaque client corporate
Tendance d'Investissement
Dan Chung souligne que la valeur dans la pile IA ne réside pas dans les puces de traitement elles-mêmes, mais dans l'écosystème de mémoire qui les entoure. Les investisseurs qui regardaient auparavant uniquement NVIDIA et les nouvelles startups d'IA observent désormais plus attentivement les fabricants de mémoire, les contrôleurs et les solutions de refroidissement. C'est un cycle de demande à long terme — pas une tendance et pas une spéculation, mais une nécessité architecturale intégrée à la nature même des modèles de langage géants.
« L'IA ne peut pas se développer sans mémoire.
Ce n'est pas une option, c'est une limitation », dit-il dans l'entrevue.
Ce Que Cela Signifie
La mémoire de semiconducteurs devient le nouveau 'chemin de fer' — l'infrastructure de base sur laquelle toutes les autres technologies sont construites. Les investissements se déplacent non vers les startups d'IA les plus brillantes, mais vers les entreprises qui fournissent les pelles et les pics pour la ruée vers l'or de l'IA. Cela signifie une demande à long terme, une protection contre la spéculation et une visibilité des revenus pendant de nombreuses années à venir.