Le grand tournant dans le supercalcul
Pendant des décennies, la puissance de calcul a circulé dans un seul sens. D'abord, les supercalculateurs géants ont bénéficié du matériel de pointe, puis ces innovations se sont lentement diffusées dans les appareils grand public et les PC de jeu.
Ce schéma s'est complètement inversé. Les processeurs graphiques, initialement conçus pour les jeux vidéo, ont donné naissance à une nouvelle ère de calcul accéléré. Ils ont accédé au monde des supercalculateurs scientifiques de pointe et sont devenus les moteurs de l'essor de l'intelligence artificielle.
Le symbole le plus évident de cette évolution est JUPITER, au centre de recherche de Jülich en Allemagne. JUPITER est l'un des supercalculateurs les plus performants au monde, avec une consommation énergétique de 63,3 gigaflops par watt. Plus impressionnant encore, il offre une puissance de calcul de 116 exaflops d'intelligence artificielle, un bond spectaculaire par rapport aux 92 exaflops d'intelligence artificielle disponibles il y a peu.
JUPITER illustre l'évolution des règles du jeu. En 2019, près de 70 % des 100 systèmes de calcul haute performance les plus puissants utilisaient uniquement des processeurs. Aujourd'hui, ce chiffre est inférieur à 15 %. 88 de ces systèmes sont désormais accélérés, et la plupart fonctionnent grâce à des cartes graphiques NVIDIA.
Sur l'ensemble du classement TOP500, la tendance est la même : 388 systèmes utilisent la technologie NVIDIA, et plus de 200 d'entre eux bénéficient d'une accélération GPU. Plus de 360 sont connectés au réseau haute performance NVIDIA. Le calcul accéléré n'est plus une expérimentation, il est devenu la norme.
Pourquoi les GPU ont pris le dessus : puissance, précision et IA
Cette révolution n'est pas uniquement due à la rapidité des GPU. Elle est due aux contraintes énergétiques extrêmes. Faire fonctionner un supercalculateur revient à payer la facture d'électricité d'une petite ville. Si l'on souhaite des performances exascale sans construire une centrale électrique à proximité de chaque centre de données, il faut du matériel plus performant avec une consommation énergétique moindre.
Les GPU offrent une puissance de calcul bien supérieure à celle des CPU traditionnels. Bien avant l'essor de l'IA générative, les chercheurs avaient anticipé cette évolution. Le calcul exascale ne deviendrait réaliste qu'avec l'accélération. Ce fut le signal d'alarme discret qui annonçait la suite des développements.
L'histoire prend une tout autre dimension avec l'essor de l'IA et de la plateforme NVIDIA CUDA X. CUDA a ouvert la voie à bien plus que le simple traitement graphique des GPU, permettant aux développeurs d'exploiter un parallélisme massif pour les charges de travail scientifiques et d'IA. Soudain, les supercalculateurs peuvent mener de front de nombreuses tâches :
- Calculs scientifiques classiques en double précision pour des simulations de haute précision
- Précision mixte pour un entraînement et une inférence plus rapides sur les modèles d'IA
- Des formats ultra-efficaces comme INT8 pour l'apprentissage profond moderne
Cette combinaison d'options de précision a permis aux chercheurs d'optimiser au maximum les performances de leurs ressources énergétiques. Ils pouvaient ainsi réaliser des simulations plus complexes, entraîner des réseaux neuronaux plus profonds tout en maîtrisant leur consommation d'énergie.
Jensen Huang, fondateur et PDG de NVIDIA, l'avait pressenti il y a des années. Lors de la conférence SC16, bien avant la vague actuelle d'IA, il décrivait l'apprentissage profond comme un marteau de Thor qui révolutionnerait notre approche des problèmes les plus complexes en science et en industrie. Cette prédiction se vérifie aujourd'hui dans les performances des machines actuelles.
Le développement matériel qui a mené à ce résultat est jalonné d'étapes importantes. Titan, au Laboratoire national d'Oak Ridge en 2012, fut l'un des premiers grands systèmes à associer des processeurs et des processeurs graphiques à grande échelle. Il a démontré comment la superposition de différents types de parallélisme pouvait générer des gains considérables dans des applications concrètes.
En Europe, Piz Daint a su allier performances et efficacité avec brio. Ses succès ne se sont pas limités aux benchmarks : il a offert de meilleurs résultats concrets pour des tâches telles que les prévisions météorologiques COSMO, prouvant ainsi que l’accélération GPU était rentable pour les applications pratiques.
En 2017, le tournant était évident. Les supercalculateurs Summit à Oak Ridge et Sierra à Lawrence Livermore ont établi une nouvelle norme pour les systèmes de pointe : l’accélération avant tout. Ces machines n’ont pas seulement accéléré les tâches existantes. Elles ont permis aux scientifiques d’explorer de nouvelles pistes de recherche en climatologie, en génomique, en science des matériaux et dans bien d’autres domaines.
L'efficacité énergétique est tout aussi importante que les performances brutes. Sur la liste Green500 des supercalculateurs les plus efficaces, les systèmes accélérés par NVIDIA dominent le classement. La plupart des dix premiers utilisent le réseau NVIDIA Quantum InfiniBand, qui assure une circulation des données extrêmement rapide au sein du système, sans gaspillage d'énergie.
JUPITER réunit tous ces éléments. Il combine un exaflop de performances FP64 traditionnelles avec 116 exaflops d'IA. Cette combinaison illustre comment la science moderne est désormais une fusion de simulation et d'IA. L'efficacité énergétique n'a pas seulement rendu l'exascale possible ; elle a rendu l'IA à l'échelle exascale concrète.
Ce que cela signifie pour la science et au-delà
Tout ce travail sur le matériel et l'architecture ne vise pas seulement à obtenir les meilleurs résultats dans les classements de performance. Il s'agit de débloquer de nouvelles possibilités pour la science concrète.
- Les modèles climatiques et météorologiques peuvent fonctionner plus rapidement et avec une résolution plus élevée, ce qui nous aide à comprendre et à nous préparer aux événements extrêmes.
- La découverte de médicaments et la génomique peuvent explorer plus rapidement d'immenses espaces de recherche, ce qui pourrait permettre d'offrir plus tôt de nouveaux traitements aux patients.
- Les simulations de réacteurs à fusion et la modélisation des systèmes quantiques peuvent nous rapprocher de percées majeures dans le domaine des énergies propres et des matériaux de nouvelle génération.
- La recherche pilotée par l'IA peut accélérer les découvertes dans presque tous les domaines scientifiques, de la physique à la biologie en passant par l'ingénierie.
Le passage aux GPU a débuté comme un simple problème d'efficacité énergétique. Il s'est transformé en un atout architectural majeur. Aujourd'hui, il est devenu une véritable superpuissance scientifique, permettant à la simulation et à l'IA de fonctionner de concert à des échelles auparavant inaccessibles.
Le calcul scientifique ouvre la voie, mais son impact ne se limitera pas à ce seul domaine. À mesure que ces techniques se généralisent, le reste de l'informatique suivra, des charges de travail d'entreprise aux services cloud, en passant par les appareils que nous utilisons au quotidien. L'ère du calcul accéléré et de l'IA à grande échelle n'est plus une perspective d'avenir : elle est déjà là.
Article et image originaux : https://blogs.nvidia.com/blog/accelerated-scientific-systems/
