Habr AI→ original

Les NPU dans les ordinateurs portables : nouvelles exigences pour l’IT d’entreprise

Les NPU (processeurs neuronaux) font désormais partie des SoC des ordinateurs portables — AMD Ryzen AI 300, Intel Core Ultra. Microsoft exige leur présence pour

Les NPU dans les ordinateurs portables : nouvelles exigences pour l’IT d’entreprise
Source : Habr AI. Collage: Hamidun News.
◐ Écouter l'article

Le cloud perd lentement son monopole sur le calcul IA. Microsoft a inscrit un processeur neuronal dans les exigences obligatoires pour Copilot+ PC, AMD et Intel intègrent le NPU directement dans le SoC — et l'informatique d'entreprise fait face à un choix qui n'existait pas avant.

Trois Processeurs dans Une Puce

Les SoCs modernes comme AMD Ryzen AI 300 ou Intel Core Ultra contiennent trois moteurs de calcul : une CPU classique, GPU et NPU. En théorie, cela semble simple, mais un processeur neuronal est une bête complètement différente. Le NPU est optimisé pour les opérations matricielles : les réseaux de neurones s'exécutent plus vite ici que sur un GPU universel. Mais seulement si le modèle tient dans la mémoire locale.

AMD et Intel ont mis seulement 16 GB de VRAM (ou moins) dans le NPU, tandis que le GPU partage la mémoire principale du portable. Ce compromis est visible dans les benchmarks. Le NPU dans AMD Ryzen AI 300 a généré une image en 70 secondes, tandis que le GPU intégré de la même puce l'a fait en 30. Le processeur spécialisé a perdu face à l'universel de moitié — sur la tâche pour laquelle il a été conçu. Le goulot d'étranglement : la mémoire. Quand le modèle est plus grand que ce que le NPU peut contenir, le processeur neuronal devient un goulot d'étranglement au lieu d'un accélérateur.

Architecture Hybride pour l'Informatique Corporative

Le scénario principal promu par Microsoft et ses partenaires :

  • Tâches IA légères (classification, recherche, génération de petits textes) — sur NPU localement
  • Modèles complexes (grands LLMs, traitement vidéo) — dans le cloud
  • Les données restent partiellement sur l'appareil, partiellement synchronisées
  • La logique de déchargement est intégrée dans l'application

Pour l'informatique d'entreprise, cela signifie de nouveaux défis. Avant, vous pouviez simplement déployer un service cloud et l'oublier. Maintenant, vous devez :

Gérer les modèles sur les appareils. Chaque ordinateur portable reçoit un ensemble de modèles ONNX ou TensorFlow. Les versions peuvent diverger. Les mises à jour sont téléchargées via Internet. Pour 50K ordinateurs portables d'entreprise, cela devient un défi logistique.

Contrôler la mémoire. Si le modèle ne tient pas dans 16 GB de NPU — l'application plante. Avant, un ingénieur cloud résolvait cela une fois. Maintenant, vous avez besoin d'un algorithme pour sélectionner le modèle sur le client en fonction de la configuration.

Surveiller la batterie. Le NPU consomme moins d'énergie que le GPU, mais ce gain est plus faible qu'il n'y paraît au premier abord.

Ce Qui Fonctionne Réellement Maintenant

Les petits LLMs (comme Phi-3.5 avec 3.8B paramètres) tiennent entièrement sur un ordinateur portable. L'inférence s'exécute sur le NPU en temps acceptable. Mais cela ne fonctionne que pour la lecture et la classification. La génération de texte sur une Llama-2-7B complète est encore lente.

Copilot for Microsoft 365 — le principal bénéficiaire. Recherche de documents, résumés d'email, planification de réunions — tout cela fonctionne localement. Microsoft promet que cela améliorera la confidentialité (les données ne vont pas au cloud) et la vitesse (pas de délais réseau).

Ce Que Cela Signifie

Les fabricants de portables ont triomphé sur les marchés de niche. L'informatique d'entreprise a acquis un outil qu'elle doit apprendre à utiliser. Les plus audacieux préparent déjà des plateformes de livraison de modèles. Le reste attend que cela se simplifie. Personne ne quitte le cloud — par définition, un avenir hybride contient les deux parties.

ZK
Hamidun News
Actualités IA sans bruit. Sélection éditoriale quotidienne de plus de 400 sources. Produit de Zhemal Khamidun, Head of AI chez Alpina Digital.
Qu'en pensez-vous ?
Chargement des commentaires…