Nvidia renonce à ses ambitions dans le cloud public
Nvidia a restructuré son pôle cloud computing et renonce à son ambition initiale de proposer un service de cloud public de grande envergure, concurrent direct d'Amazon Web Services. Plutôt que de tenter de devenir un fournisseur de cloud complet, Nvidia semble se recentrer sur son cœur de métier : la fourniture de GPU puissants et de plateformes logicielles qui alimentent les services cloud d'autres entreprises, plutôt que l'exploitation d'un immense cloud public.
Pour les joueurs PC et les passionnés de matériel informatique, cela peut sembler une simple manœuvre commerciale en coulisses, mais elle s'inscrit en réalité dans des tendances importantes du cloud gaming et de la disponibilité des GPU. Nvidia est un acteur majeur tant sur le marché du matériel de jeu PC local que sur celui des serveurs qui hébergent les plateformes de cloud gaming. Tout changement dans sa stratégie cloud peut influencer la distribution de ses GPU, leur utilisation et les types de services qui seront proposés à l'avenir.
Pourquoi Nvidia recentre ses efforts sur le cloud
Exploiter un cloud public à l'échelle d'Amazon Web Services, de Microsoft Azure ou de Google Cloud est une tout autre affaire que de concevoir des GPU. Cela exige des investissements massifs dans les centres de données, les réseaux mondiaux, le support client et une vaste gamme de services logiciels qui vont bien au-delà du graphisme et de l'IA. Il semblerait qu'Nvidia ait décidé que se positionner comme fournisseur de cloud complet n'est pas la meilleure façon d'utiliser ses ressources.
Au lieu de cela, Nvidia peut renforcer ses partenariats avec les géants du cloud existants. Ces entreprises achètent d'énormes quantités de GPU Nvidia pour alimenter des applications allant de l'entraînement de l'IA au jeu en nuage. En se concentrant sur le rôle de fournisseur de matériel et de plateforme pour ces services, Nvidia peut continuer à façonner l'avenir du cloud computing sans en supporter les coûts et les risques liés à l'exploitation d'un cloud public complet.
Pour les joueurs, cela signifie probablement que Nvidia continuera d'investir davantage dans les technologies s'intégrant aux clouds de ses partenaires. Il s'agit notamment de la virtualisation GPU, des améliorations basées sur l'IA et des plateformes permettant aux développeurs d'exploiter facilement les performances GPU depuis des serveurs distants.
Ce que cela signifie pour les passionnés de jeux en nuage et de PC
Bien que brève, cette mise à jour indique une orientation claire : Nvidia souhaite davantage être le moteur des plateformes cloud que la plateforme elle-même. Voici comment cela pourrait impacter le secteur du jeu vidéo et du matériel PC.
En se concentrant davantage sur le matériel et les plateformes GPU, Nvidia peut intensifier ses efforts pour concevoir des GPU plus rapides et plus efficaces pour les centres de données, ainsi que des piles logicielles comme CUDA et les frameworks d'IA. Des GPU plus performants pour les centres de données peuvent améliorer la latence et la qualité visuelle des services de cloud gaming qui utilisent le matériel Nvidia.
-
Davantage de partenariats plutôt qu'un unique cloud Nvidia géant. Au lieu d'un cloud public Nvidia dominant Amazon Web Services, on observera probablement une diffusion encore plus large du matériel Nvidia sur les clouds existants. Cela pourrait se traduire par une couverture régionale accrue et de meilleures performances pour les services de cloud gaming reposant sur Amazon Web Services ou d'autres fournisseurs utilisant des GPU Nvidia.
Une séparation claire entre GeForce Now et le cloud public généraliste : Nvidia propose déjà GeForce Now, son propre service de cloud gaming dédié exclusivement aux jeux. Ce recentrage sur les fonctionnalités de jeu plutôt que sur un cloud public généraliste suggère que Nvidia continuera de privilégier GeForce Now plutôt que de développer une offre complète de type Amazon Web Services.
-
Des circuits d'approvisionnement en GPU plus prévisibles : si Nvidia ne cherche pas à surstocker son propre cloud public, elle peut distribuer davantage de GPU directement à ses partenaires et au marché grand public. En théorie, cela pourrait contribuer à stabiliser la disponibilité des GPU au fil du temps, même si la demande en IA reste très forte.
Pour les assembleurs de PC, cette décision ne change rien aux principes de base du choix d'un processeur ou d'une carte graphique pour une nouvelle configuration. Elle renforce toutefois le rôle de Nvidia en tant que spécialiste des GPU, souhaitant que ses puces soient présentes partout, des PC de jeu aux serveurs cloud, plutôt que de se réinventer complètement en tant qu'opérateur cloud.
Vue d'ensemble des performances dans le cloud
La réorganisation du groupe de cloud computing de Nvidia illustre une tendance majeure dans le monde de la tech : la performance est de plus en plus partagée entre deux pôles. D'une part, le matériel local haut de gamme, comme les PC et consoles de jeux, et d'autre part, les serveurs cloud puissants équipés de GPU. Nvidia occupe une place centrale à l'intersection de ces deux pôles.
En renonçant au projet d'un immense cloud public Nvidia et en se recentrant sur les partenariats, Nvidia peut repousser les limites de la performance sans se disperser. Pour les joueurs et les créateurs, cela signifie probablement :
Améliorations continues de la technologie GPU, bénéfiques à la fois pour les PC de jeu et les services cloud.
Meilleure prise en charge du rendu en nuage et des fonctionnalités d'IA qui améliorent les jeux et les applications créatives.
Davantage de moyens pour les développeurs d'exploiter la puissance des GPU depuis le cloud sans être limités à une seule plateforme de marque Nvidia.
Concrètement, vous ne remarquerez probablement aucun changement au quotidien suite à cette réorganisation. Elle indique toutefois que Nvidia entend se concentrer sur les éléments qui déterminent les fréquences d'images et les performances de calcul, tout en laissant la gestion des immenses clouds publics à des entreprises comme Amazon, Microsoft et Google. Pour tous ceux qui s'intéressent au matériel PC, au cloud gaming et aux performances, cela rappelle que l'avenir reposera sur une combinaison de PC locaux puissants et de serveurs tout aussi performants, pilotés par GPU, Nvidia s'efforçant de gérer les deux.
Article et image originaux : https://www.tomshardware.com/tech-industry/nvidia-restructures-dgx-cloud-team-refocuses-cloud-efforts-internally
