NVIDIA au service de la prochaine génération de modèles d'IA
OpenAI a lancé GPT 5.2, présenté comme son modèle le plus performant à ce jour pour les tâches intellectuelles professionnelles. Ce nouveau modèle d'IA est entraîné et déployé sur la puissante infrastructure NVIDIA, notamment les serveurs NVIDIA Hopper et les systèmes GB200 NVL72 de dernière génération.
Bien que GPT 5.2 soit un modèle d'IA axé sur le raisonnement et les tâches de traitement des connaissances, son aspect matériel est particulièrement intéressant pour les passionnés de technologie et d'informatique. L'entraînement de ces modèles de pointe repose sur d'immenses clusters de GPU, des réseaux avancés et des logiciels soigneusement optimisés. NVIDIA a ainsi conçu une plateforme complète pour le calcul IA à grande échelle, à l'instar des PC de jeu haut de gamme qui combinent GPU puissants, mémoire rapide et pilotes optimisés pour des performances maximales.
L'entreprise souligne que l'IA moderne est régie par trois lois de mise à l'échelle : la mise à l'échelle lors du pré-entraînement, du post-entraînement et des tests. Les modèles de raisonnement se généralisent et utilisent souvent plusieurs réseaux fonctionnant de concert lors de l'inférence. Cependant, l'intelligence fondamentale de ces modèles repose toujours sur un pré-entraînement massif et un post-entraînement rigoureux, qui exigent des ressources de calcul considérables.
GB200, GB300 et le besoin d'une puissance GPU massive
Entraîner un modèle d'IA de pointe à partir de zéro est une tâche colossale. Cela peut nécessiter des dizaines, voire des centaines de milliers de GPU fonctionnant en parallèle. C'est très différent d'un simple PC de jeu faisant tourner un titre à une fréquence d'images élevée, mais l'idée sous-jacente est similaire : des GPU plus puissants et des architectures plus performantes permettent d'obtenir de meilleures performances.
NVIDIA souligne que ce type de déploiement à grande échelle exige l'excellence dans plusieurs domaines :
- Des accélérateurs de classe mondiale, qui sont essentiellement des GPU très haut de gamme conçus spécifiquement pour les charges de travail d'IA.
- Réseau avancé capable de connecter des GPU sur des architectures à mise à l'échelle verticale, horizontale et transversale.
- Une pile logicielle entièrement optimisée pour que tout ce matériel soit utilisé efficacement.
Comparativement à l'architecture NVIDIA Hopper, les systèmes NVIDIA GB200 NVL72 ont offert des performances d'entraînement trois fois plus rapides sur le plus grand modèle testé lors des derniers benchmarks MLPerf Training. Ils ont également permis d'obtenir un rapport performance/prix presque deux fois supérieur. Pour les développeurs et les fournisseurs de services cloud, cela se traduit par des cycles de développement plus courts et un déploiement plus rapide des nouveaux modèles d'IA.
Allant encore plus loin, la NVIDIA GB300 NVL72 offre une vitesse plus de quatre fois supérieure à celle de Hopper. Pour quiconque suit l'évolution des générations de GPU dans le jeu vidéo, c'est un bond en avant considérable. Ces gains ne se limitent pas à quelques images par seconde supplémentaires ; ils permettent de rendre possibles des modèles d'IA qui auraient été impossibles ou beaucoup trop lents sur du matériel plus ancien.
L'IA à travers les modalités et ses implications pour la technologie
La plupart des principaux modèles de langage actuels fonctionnent sur les plateformes NVIDIA, mais l'IA ne se limite plus au texte. NVIDIA prend en charge le développement multimodal, notamment la parole, les images, la vidéo et même des domaines comme la biologie et la robotique.
Parmi les modèles phares, on peut citer :
- Evo 2, qui décode les séquences génétiques.
- OpenFold3, qui prédit les structures protéiques 3D.
- Boltz 2, qui simule les interactions médicamenteuses pour aider à trouver plus rapidement des candidats prometteurs.
En milieu clinique, les modèles de synthèse NVIDIA Clara génèrent des images médicales réalistes afin d'améliorer le dépistage et le diagnostic tout en protégeant les données des patients. Ceci illustre comment la même catégorie de GPU que les joueurs connaissent sous la marque GeForce a évolué pour devenir des accélérateurs spécialisés pour centres de données, capables de gérer des charges de travail scientifiques et médicales exigeantes.
Dans le secteur de la création et du divertissement, des entreprises comme Runway et Inworld s'appuient également sur l'infrastructure NVIDIA pour l'entraînement de leurs modèles. Runway a récemment annoncé la Gen 4.5, un modèle de génération vidéo de pointe selon le classement d'Artificial Analysis. Ce modèle est optimisé pour NVIDIA Blackwell et a été entièrement développé sur des GPU NVIDIA, de la recherche à l'inférence, en passant par le pré-entraînement et le post-entraînement.
Runway a également présenté GWM 1, un modèle du monde général entraîné sur NVIDIA Blackwell. Conçu pour simuler la réalité en temps réel, il est interactif, contrôlable et polyvalent. Ceci ouvre des perspectives prometteuses pour les futurs jeux vidéo, mondes virtuels, outils pédagogiques, visualisations scientifiques et robotique. Imaginez des environnements pilotés par l'IA, capables de réagir intelligemment en temps réel, grâce à l'architecture NVIDIA Blackwell déployée dans le cloud.
Blackwell dans le cloud et les centres de données
NVIDIA Blackwell est désormais largement disponible auprès des principaux fournisseurs de services cloud et fabricants de serveurs. Il existe également NVIDIA Blackwell Ultra, qui offre une puissance de calcul, une mémoire et une architecture encore plus performantes.
Les fournisseurs de cloud et les partenaires NVIDIA Cloud proposant des instances optimisées par Blackwell incluent :
- Amazon Web Services
- Google Cloud
- Microsoft Azure
- Infrastructure cloud Oracle
- CoreWeave
- Lambda
- Nébie
- L'IA de l'ensemble
Ces plateformes permettent aux laboratoires d'IA et aux développeurs d'augmenter la charge de travail de pré-entraînement et autres tâches exigeantes sans avoir à posséder le matériel physique. Pour les passionnés de PC et de jeux vidéo, le principe est similaire aux services de cloud gaming, mais dédiés à l'entraînement de l'IA plutôt qu'à l'exécution de jeux. Le traitement intensif est effectué dans des centres de données équipés d'accélérateurs NVIDIA, et les utilisateurs accèdent à cette puissance à distance.
NVIDIA souligne également ses excellents résultats aux tests de performance MLPerf Training 5.1, où elle a obtenu des résultats dans les sept catégories. Ceci démontre comment sa plateforme matérielle et logicielle peut gérer efficacement un large éventail de charges de travail d'IA. Les centres de données bénéficient ainsi de la possibilité d'exécuter de nombreux types de tâches sur une plateforme unique et unifiée, au lieu de maintenir des systèmes distincts pour chaque tâche.
De plus en plus de laboratoires d'IA de pointe, tels que Black Forest Labs, Cohere, Mistral, OpenAI, Reflection et Thinking Machines Lab, entraînent leurs modèles sur la plateforme NVIDIA Blackwell. Des modèles novateurs comme GPT 5.2 aux systèmes plus spécialisés en médecine, biologie, vidéo et robotique, l'avenir de l'IA repose en grande partie sur ces architectures GPU hautes performances.
Pour tous ceux qui s'intéressent au matériel informatique, aux GPU ou au cloud computing, cette tendance illustre comment l'expertise graphique de NVIDIA est devenue un élément central de l'infrastructure mondiale de l'IA. La même entreprise qui permet de jouer à des jeux vidéo à fréquence d'images élevée contribue désormais à l'entraînement de certains des systèmes d'IA les plus avancés au monde.
Article et image originaux : https://blogs.nvidia.com/blog/leading-models-nvidia/
