Ignorer et passer au contenu
Au cœur de la superusine d'IA de Microsoft et NVIDIA : quelles conséquences pour tous les autres ?

Au cœur de la superusine d'IA de Microsoft et NVIDIA : quelles conséquences pour tous les autres ?

Microsoft et NVIDIA construisent une immense superusine d'IA

Microsoft et NVIDIA unissent leurs forces pour propulser la prochaine génération d'IA. À l'occasion de la conférence Microsoft Ignite, ils ont annoncé un important renforcement de leur collaboration, qui couvre un large éventail de domaines, des centres de données et des GPU aux agents d'IA de Microsoft 365 et aux robots industriels.

Au cœur de ce dispositif se trouve la nouvelle Superfactory d'IA de Microsoft. Elle relie le centre de données de Fairwater, dans le Wisconsin, à un nouveau site à Atlanta, en Géorgie. Ensemble, ils forment un gigantesque moteur d'IA conçu pour entraîner et exécuter certains des modèles les plus avancés au monde.

Sous le capot, Microsoft intègre des centaines de milliers de GPU NVIDIA Blackwell pour l'entraînement à grande échelle, ainsi que plus de 100 000 GPU Blackwell Ultra dans des systèmes NVIDIA GB300 NVL72 à travers le monde pour l'inférence. C'est ce matériel qui alimentera des services de pointe comme OpenAI, l'équipe Microsoft AI Superintelligence, Microsoft 365 Copilot et Microsoft Foundry.

Des clients comme Black Forest Labs utilisent déjà les systèmes NVIDIA GB200 NVL72 pour entraîner des modèles multimodaux FLUX de nouvelle génération dédiés à l'intelligence visuelle. Afin d'assurer la connectivité de l'ensemble de ces systèmes, Microsoft déploie des commutateurs Ethernet NVIDIA Spectrum X dans son centre de données Fairwater AI. Ces commutateurs sont conçus pour gérer des clusters d'IA massifs avec la vitesse et l'efficacité requises pour l'entraînement et l'inférence à grande échelle.

En complément de cette infrastructure, Microsoft déploie de nouvelles machines virtuelles Azure NCv6 Series équipées de GPU NVIDIA RTX PRO 6000 Blackwell Server Edition. Ces machines virtuelles, actuellement disponibles en préversion publique, offrent une accélération adaptée aux charges de travail telles que les agents d'IA multimodaux, les jumeaux numériques industriels utilisant NVIDIA Omniverse, les simulations scientifiques et le calcul visuel haute performance.

La même technologie GPU n'est pas réservée au cloud. Grâce à Azure Local, les entreprises peuvent exécuter leurs charges de travail d'IA au plus près de leurs données, dans des centres de données locaux, des usines ou des zones périphériques sécurisées. Il en résulte une latence réduite et une IA en temps réel pour les environnements où le transfert de toutes les données vers le cloud public est impossible.

  • Entraînez et exécutez des modèles d'IA multimodaux à grande échelle.
  • Concevoir et déployer des jumeaux numériques pour les usines et les systèmes industriels
  • Exécutez des visualisations et des simulations haut de gamme sur site ou en périphérie de réseau.

Flottes d'IA fongibles et modèles moins chers

L'un des principaux axes de ce partenariat réside dans ce que NVIDIA et Microsoft appellent une flotte d'IA fongible. En clair, il s'agit d'un ensemble flexible de GPU et de logiciels capables d'exécuter efficacement de nombreuses charges de travail différentes, contrairement à un matériel rigide et dédié à une seule fonction.

Ceci est possible car les deux entreprises optimisent en permanence l'ensemble de la pile logicielle sur Azure pour les GPU NVIDIA Blackwell et Hopper. Elles optimisent tous les éléments, des pilotes et bibliothèques aux compilateurs et environnements d'exécution d'inférence, afin d'améliorer les performances au fil du temps.

Ces optimisations alimentent les modèles les plus récents de l'équipe de superintelligence artificielle de Microsoft, notamment :

  • Aperçu du texte MAI 1
  • MAI Voice 1 pour la voix en temps réel
  • Image MAI 1 pour la génération d'images haute fidélité

Ces modèles sont intégrés à des produits comme Bing Image Creator et Microsoft Copilot ; les améliorations ne sont donc pas que théoriques. Elles ont un impact direct sur la rapidité et le coût d’exécution des fonctionnalités d’IA.

L'optimisation continue a déjà eu un impact considérable. NVIDIA souligne que ce travail a contribué à une baisse de plus de 90 % du prix des modèles GPT les plus utilisés par les utilisateurs finaux sur Azure en seulement deux ans. De ce fait, des projets d'IA auparavant irréalisables deviennent soudainement accessibles à de nombreuses organisations.

Cette optimisation s'étend également à Microsoft Foundry, où la bibliothèque NVIDIA TensorRT LLM est utilisée pour améliorer le débit, réduire la latence et diminuer les coûts pour de nombreux modèles open source populaires. Pour mesurer et optimiser les performances, les entreprises s'appuient sur la suite de benchmarks NVIDIA DGX Cloud. En atteignant 95 % des performances de référence pour l'entraînement H100, Azure a été reconnu comme un cloud exemplaire par NVIDIA.

Ce travail d'optimisation ne se limite pas à l'IA générative. Il est également utile pour le traitement des données, la recherche vectorielle, les bases de données, les jumeaux numériques, le calcul scientifique et la conception 3D. L'objectif est qu'une fois un parc d'IA bien paramétré, il soit capable de gérer des charges de travail extrêmement lourdes.

Des données d'entreprise aux agents d'IA et à l'IA physique

Ce partenariat vise également à intégrer l'IA directement aux outils et aux données que les entreprises utilisent déjà. Microsoft SQL Server 2025 en est un exemple concret. NVIDIA intègre ses modèles ouverts Nemotron et ses microservices NIM à SQL Server afin que les entreprises puissent exécuter la génération augmentée par récupération directement sur leurs propres données, dans le cloud ou sur site.

Cette approche maintient les données à proximité de leur lieu de stockage, exploite efficacement les GPU et est conçue pour la sécurité et l'évolutivité. Elle transforme SQL Server en bien plus qu'une simple base de données : un moteur d'IA capable de répondre à des questions complexes sur les données d'entreprise.

NVIDIA et Microsoft renforcent également leur présence dans le domaine de l'IA agentielle pour les tâches quotidiennes. Le kit de développement NVIDIA NeMo Agent Toolkit est désormais compatible avec Microsoft Agent 365. Les développeurs peuvent ainsi créer des agents d'IA prêts pour l'entreprise, s'intégrant aux applications Microsoft 365 telles qu'Outlook, Teams, Word et SharePoint, tout en respectant les exigences de conformité et de gouvernance.

Pour alimenter ces agents, Microsoft Foundry propose des modèles NVIDIA Nemotron pour l'IA numérique et des modèles NVIDIA Cosmos pour l'IA physique, sous forme de microservices NIM sécurisés. Les développeurs peuvent les utiliser pour créer des agents dotés d'une compréhension multimodale, d'un raisonnement multilingue, de compétences en mathématiques et en programmation, et même d'une conscience du monde physique.

La sécurité est un autre enjeu majeur. Les entreprises collaborent au développement de nouveaux modèles d'apprentissage adverse, conçus avec les outils NVIDIA Dynamo Triton et TensorRT. Ces modèles sont destinés à détecter les cybermenaces et à y répondre en temps réel, avec une accélération jusqu'à 160 fois supérieure aux méthodes basées sur le processeur.

Côté matériel, NVIDIA et Microsoft rendent possible ce qu'ils appellent l'IA physique. Grâce aux bibliothèques NVIDIA Omniverse sur Azure, les développeurs peuvent créer et exécuter des jumeaux numériques complets d'usines, de produits et de systèmes industriels. Des partenaires comme Synopsys, Sight Machine et SymphonyAI utilisent ces outils pour les simulations, l'analyse en temps réel et la visualisation 3D.

Les développeurs en robotique ont accès à NVIDIA Isaac Sim sur Azure pour la génération de données synthétiques et les tests basés sur la simulation. Des entreprises comme Hexagon conçoivent des robots humanoïdes en utilisant l'ensemble de la suite robotique NVIDIA, tandis que Wandelbots NOVA utilise Isaac Sim et Isaac Lab pour accélérer le passage de la simulation au déploiement réel.

Pour lier le tout, NVIDIA et Microsoft utilisent une approche d'ingénierie numérique standardisée pour OpenUSD, permettant une interopérabilité fluide entre les outils et les flux de travail 3D dans le cloud.

Cette collaboration élargie s'accompagne également d'un partenariat distinct avec Anthropic, visant à optimiser les modèles Anthropic pour le matériel NVIDIA et à adapter les futures architectures NVIDIA aux charges de travail Anthropic. En d'autres termes, l'écosystème autour de Microsoft et NVIDIA prend encore plus d'ampleur.

Article et image originaux : https://blogs.nvidia.com/blog/nvidia-microsoft-ai-superfactories/

Panier 0

Votre carte est actuellement vide.

Commencer à magasiner