Le rôle surprenant des cartes graphiques GTX 580 dans l'histoire de l'IA
Bien avant les cartes RTX modernes et les accélérateurs d'IA dédiés, deux GPU de jeu ont discrètement contribué à révolutionner le monde de la technologie. Lors d'une récente apparition dans le podcast de Joe Rogan, Jensen Huang, PDG de Nvidia, a partagé une anecdote amusante sur les véritables débuts de l'apprentissage profond.
Selon Huang, l'équipe à l'origine de certaines des premières grandes avancées en matière d'apprentissage profond a exécuté ce qu'il a appelé le premier réseau d'apprentissage automatique à grande échelle au monde sur deux cartes graphiques Nvidia GTX 580 en SLI en 2012. Ce qui ressemble à une configuration de jeu modeste a fini par devenir une étape clé de la révolution de l'IA.
Des cartes graphiques pour le jeu aux centrales d'apprentissage profond
En 2012, la GTX 580 était une carte graphique haut de gamme pour le jeu, basée sur l'architecture Fermi de Nvidia. Les joueurs PC l'utilisaient pour les titres de l'époque qui sollicitaient fortement les graphismes. L'utilisation de deux GTX 580 en SLI permettait un gain de performances significatif dans les jeux compatibles, grâce au partage de la charge de rendu.
Les chercheurs en apprentissage profond ont perçu un autre potentiel dans ces GPU. Au lieu de les utiliser uniquement pour le rendu d'images, ils ont exploité la puissance de calcul massivement parallèle des GTX 580 pour effectuer des calculs complexes pour les réseaux neuronaux. Chaque carte pouvait exécuter simultanément des milliers d'opérations mathématiques simples, ce qui correspond exactement aux besoins des réseaux neuronaux.
Ce système n'était pas une machine d'IA conçue spécifiquement à cet effet. Il s'agissait simplement de deux cartes graphiques de jeu fonctionnant ensemble, selon la même configuration de base que celle utilisée par de nombreux passionnés d'informatique pour les jeux. Mais ce matériel grand public accessible offrait aux chercheurs une puissance de calcul suffisante pour entraîner des réseaux bien plus vastes et performants que ce que les processeurs traditionnels pouvaient gérer à l'époque.
Une fois que les chercheurs ont prouvé que les GPU pouvaient accélérer considérablement l'apprentissage profond, cela a bouleversé la façon dont toute l'industrie concevait le matériel graphique. Ce qui avait commencé avec les joueurs achetant des cartes GTX pour obtenir des fréquences d'images maximales s'est rapidement étendu aux scientifiques et aux ingénieurs utilisant du matériel similaire pour exploiter des algorithmes plus performants.
Comment ce moment a façonné le matériel informatique moderne et l'IA
Ces premiers travaux sur les GTX 580 en SLI ont contribué à lancer un cercle vertueux entre le matériel de jeu et la recherche en IA.
- Des chercheurs ont démontré que les GPU grand public étaient excellents pour les réseaux neuronaux, et pas seulement pour les jeux.
- La demande en puissance de calcul GPU plus importante et plus efficace a augmenté.
- Nvidia et d'autres ont commencé à concevoir des fonctionnalités matérielles utiles à la fois pour les performances de jeu et les charges de travail d'IA.
Le résultat, c'est ce que nous constatons aujourd'hui. Les GPU modernes sont conçus dès le départ pour l'IA. La gamme RTX de Nvidia, par exemple, intègre des cœurs Tensor dédiés à l'accélération des calculs matriciels pour l'apprentissage automatique. Les joueurs PC profitent de fonctionnalités comme le DLSS, qui utilise l'IA pour améliorer la résolution des images et optimiser les performances. Les centres de données, quant à eux, bénéficient d'architectures similaires pour entraîner et exécuter d'immenses modèles d'IA.
Tout cela remonte à des moments comme l'expérience de 2012 décrite par Huang. Deux GTX 580 en SLI ont suffi à convaincre que les GPU pouvaient faire bien plus que du simple rendu graphique. Ils pouvaient servir de moteurs à de nouveaux types de logiciels, de la reconnaissance d'images plus intelligente aux modèles de langage avancés.
Pour les passionnés de matériel informatique, cette histoire rappelle que les appareils qui se trouvent sur leur bureau peuvent parfois jouer un rôle dans des bouleversements technologiques majeurs. Une configuration qui ressemble à un PC de jeu typique d'un utilisateur averti peut aussi se transformer en un laboratoire d'intelligence artificielle à petite échelle entre de bonnes mains.
Alors que l'IA continue d'accroître la demande en GPU plus performants et économes en énergie, le lien entre jeu et calcul se confirme. La prochaine fois que vous installerez une nouvelle carte graphique dans votre système, vous n'améliorerez pas seulement votre fréquence d'images. Vous utiliserez le même type de matériel qui a marqué le début de l'ère moderne du deep learning, à l'époque où deux GTX 580 ont marqué l'histoire.
Article et image originaux : https://www.tomshardware.com/tech-industry/artificial-intelligence/two-gtx-580s-in-sli-are-responsible-for-the-ai-we-have-today-nvidias-huang-revealed-that-the-invention-of-deep-learning-began-with-two-flagship-fermi-gpus-in-2012
