Ignorer et passer au contenu
NVIDIA DGX Spark et DGX Station : des supercalculateurs IA de bureau conçus par Grace Blackwell

NVIDIA DGX Spark et DGX Station : des supercalculateurs IA de bureau conçus par Grace Blackwell

Des supercalculateurs d'IA de bureau arrivent sur les ordinateurs de bureau

Avec ses nouveaux systèmes DGX Spark et DGX Station, NVIDIA met la puissance des centres de données à portée de main. Ces supercalculateurs IA compacts sont conçus pour les développeurs, les chercheurs, les créateurs et les utilisateurs avancés qui souhaitent exécuter localement des modèles d'IA ouverts et de pointe, sans dépendre entièrement du cloud.

Les deux systèmes, basés sur l'architecture NVIDIA Grace Blackwell, offrent des performances d'IA de l'ordre du pétaflops grâce à une mémoire unifiée de grande capacité. Cette combinaison leur permet de gérer des modèles qui nécessitaient auparavant une baie de serveurs complète dans un centre de données.

DGX Spark vise à fournir à un large éventail de développeurs une plateforme d'IA locale puissante, tandis que DGX Station cible les laboratoires d'IA de pointe et les entreprises qui ont besoin d'expérimenter avec des modèles extrêmement grands, jusqu'à un billion de paramètres.

Ce passage à l'IA de bureau est crucial pour quiconque s'intéresse au calcul haute performance et aux charges de travail de nouvelle génération. Il simplifie considérablement le prototypage, l'optimisation et le déploiement d'IA avancées, tout en conservant les données et le code source entièrement en local.

Capacités matérielles et modèles des DGX Spark et DGX Station

DGX Spark est conçu pour exécuter des modèles open source modernes qui nécessitaient auparavant du matériel de classe centre de données. Grâce aux dernières bibliothèques NVIDIA CUDA X et aux logiciels d'IA préinstallés, il fonctionne comme un système prêt à l'emploi pour les applications d'IA.

Les principales fonctionnalités de DGX Spark incluent :

  • Prise en charge des modèles open source et d'entreprise pouvant atteindre 100 milliards de paramètres sur un système de bureau local
  • Des performances d'IA de niveau pétaflop grâce à la nouvelle architecture Blackwell
  • Pile logicielle NVIDIA AI préconfigurée et bibliothèques CUDA X pour une installation rapide
  • Compatibilité avec les modèles et frameworks ouverts populaires tels que la famille NVIDIA Nemotron 3

L'architecture Blackwell introduit un nouveau format de données, NVFP4, qui permet de compresser les modèles d'IA jusqu'à environ 70 % tout en préservant leur précision. Il en résulte des performances accrues et la possibilité d'intégrer des modèles plus volumineux dans la mémoire locale sans perte de qualité.

NVIDIA collabore étroitement avec l'écosystème open source. Son partenariat avec llama.cpp, par exemple, permet d'améliorer les performances d'environ 35 % en moyenne pour les modèles de langage de pointe exécutés sur DGX Spark. Llama.cpp accélère désormais également le chargement des modèles, ce qui améliore le quotidien des développeurs travaillant en continu sur des modèles de langage complexes.

La station DGX est la version haut de gamme destinée aux utilisateurs exigeant une capacité de calcul extrêmement élevée sur un système de bureau. Elle utilise la puce GB300 Grace Blackwell Ultra dotée de 775 gigaoctets de mémoire cohérente à précision FP4, ce qui lui permet d'exécuter des modèles comportant jusqu'à mille milliards de paramètres.

Cette capacité ouvre la voie à l'expérimentation de modèles de pointe, tels que :

  • Kimi K2 Réflexions
  • DeepSeek V3.2
  • Mistral Large 3
  • Meta Llama 4 Maverick
  • Familles Qwen3
  • Modèles de classe OpenAI gpt OSS 120b

Les développeurs de frameworks comme vLLM et SGLang soulignent un avantage pratique majeur de DGX Station : au lieu d’avoir besoin d’accéder à des déploiements GB300 à l’échelle d’un rack complet, ils peuvent désormais tester les fonctionnalités spécifiques au GB300 et des configurations de modèles complexes directement sur un seul poste de travail. Cela permet de réduire les coûts, de raccourcir les cycles d’itération et de simplifier considérablement le développement du framework.

Au CES, NVIDIA utilise DGX Station pour démontrer des charges de travail de haut niveau telles que :

  • Préentraînement du modèle de langage à environ 250 000 jetons par seconde
  • Visualisation de données volumineuses (millions de points de données regroupés) grâce à l'accélération NVIDIA cuML
  • Pipelines de conversion de texte en graphes de connaissances optimisés par Llama 3.3 Nemotron Super 49B

Flux de travail des créateurs, agents d'IA locaux et cas d'utilisation concrets

NVIDIA ne limite pas ces systèmes à la recherche pure. DGX Spark et DGX Station sont conçus pour prendre en charge l'intégralité du cycle de vie de l'IA dans de nombreux secteurs, notamment la santé, la robotique, le commerce de détail et la création de contenu.

Pour les créateurs, l'accent est mis sur les modèles modernes de génération d'images, de diffusion et de vidéo. Des modèles populaires comme Black Forest Labs FLUX.2 et FLUX.1 et Alibaba Qwen Image prennent désormais en charge NVFP4, ce qui réduit la consommation de mémoire et améliore les performances sur les GPU NVIDIA compatibles. Le modèle vidéo Lightricks LTX 2 est également optimisé avec des points de contrôle quantifiés NVFP8, offrant une qualité comparable aux meilleurs modèles hébergés dans le cloud, tout en étant exécutable en local.

Lors de démonstrations en direct au CES, le DGX Spark a permis de décharger les ordinateurs portables des créateurs des tâches exigeantes de génération vidéo. Un test comparatif a révélé que le DGX Spark offre une vitesse environ huit fois supérieure à celle d'un MacBook Pro haut de gamme équipé d'une puce M4 Max. L'objectif est de permettre aux créateurs de continuer à utiliser leurs machines habituelles pour le montage et la conception, tandis que les tâches de génération les plus lourdes s'exécutent en arrière-plan sur le boîtier DGX.

Pour les moddeurs et les artistes de jeux vidéo, NVIDIA intègre DGX Spark à la plateforme open source RTX Remix. L'objectif est de permettre aux équipes de modding de déléguer la création de tous les éléments à DGX Spark, tout en continuant à peaufiner les niveaux et le gameplay sur leurs propres PC. Grâce à l'IA générative qui contribue à la création des textures et des éléments, les équipes peuvent instantanément visualiser leurs modifications en jeu, sans interruption ni longue attente.

La productivité des développeurs est un autre point fort. NVIDIA présente un assistant de codage CUDA local, basé sur NVIDIA Nsight et exécuté directement sur DGX Spark. Cet assistant facilite l'écriture et l'optimisation du code GPU tout en conservant l'intégralité du code source sur site. Pour les équipes soumises à des exigences strictes en matière de propriété intellectuelle et de sécurité, cette combinaison de données locales et d'une puissante assistance IA représente un atout majeur.

Des partenaires industriels utilisent déjà DGX Spark comme moteur d'IA local pour les flux de travail en périphérie et avec agents. Hugging Face l'associe au robot Reachy Mini pour créer des agents d'IA incarnés capables de voir, d'entendre et de réagir par des mouvements expressifs. IBM utilise DGX Spark avec sa suite OpenRAG pour fournir une solution complète de génération augmentée et de récupération, intégrant l'extraction, l'intégration, la récupération et l'inférence, le tout exécuté localement.

JetBrains positionne DGX Spark pour les clients qui souhaitent une IA haute performance avec un contrôle strict de la gouvernance et de la propriété intellectuelle, qu'ils déploient dans le cloud, sur site ou dans des environnements hybrides.

Il existe aussi des exemples plus futuristes. TRINITY, un véhicule urbain intelligent à trois roues et auto-équilibré pour une seule personne, utilise DGX Spark comme cerveau IA pour l'inférence en temps réel de modèles de langage visuels. L'idée est de considérer le véhicule comme un agent IA doté de flux de travail conversationnels et de suivi d'objectifs conçus pour les villes connectées.

Pour aider les développeurs à démarrer rapidement, NVIDIA enrichit sa bibliothèque de playbooks DGX Spark. Les playbooks nouveaux et mis à jour couvrent des domaines tels que les modèles Nemotron 3 Nano à petite échelle, l'entraînement de robots, les modèles de langage visuel, le réglage fin à l'aide de deux systèmes DGX Spark, la génomique et l'analyse financière. DGX Station bénéficiera de son propre ensemble de playbooks lors de sa mise à disposition générale.

Les systèmes DGX Spark et GB10 (partenaire) sont déjà disponibles auprès des principaux équipementiers et distributeurs, et le système DGX Station devrait arriver chez des partenaires tels qu'ASUS, Dell Technologies, HP, MSI et autres à partir du printemps 2026. Avec ces systèmes, NVIDIA mise clairement sur un avenir où l'IA puissante ne sera plus seulement dans le cloud ou les centres de données, mais aussi directement accessible depuis le clavier.

Article et image originaux : https://blogs.nvidia.com/blog/dgx-spark-and-station-open-source-frontier-models/

Panier 0

Votre carte est actuellement vide.

Commencer à magasiner