La grande pénurie de mémoire arrive
Le marché de la mémoire informatique est confronté à une grave pénurie, loin d'être un simple problème de fond. Selon les analystes de Counterpoint Research, la pénurie croissante de mémoire DRAM standard se conjugue à une forte augmentation de la demande de la part de Nvidia, ce qui pourrait entraîner une flambée des prix dans l'ensemble du secteur.
Au cœur de cette histoire se trouve la LPDDR5X. Ce type de mémoire rapide et économe en énergie, initialement destiné aux smartphones et appareils mobiles haut de gamme, s'impose désormais comme un choix privilégié pour les matériels d'IA avancés. Nvidia devrait accélérer son utilisation de la LPDDR5X de manière si significative que cela risque d'aggraver une situation d'approvisionnement déjà tendue.
Pourquoi est-ce important pour vous ? Parce que le resserrement du marché de la DRAM a des répercussions sur tous les équipements, des PC et ordinateurs portables de jeu aux serveurs cloud et aux systèmes d'IA. Counterpoint Research prévient que les modules RDIMM pour serveurs, utilisés dans les centres de données, pourraient doubler de prix d'ici 2026 si les tendances actuelles se maintiennent.
En clair, la mémoire coûte plus cher à fabriquer, la demande est plus forte que jamais et Nvidia est sur le point d'accélérer le rythme.
Comment Nvidia et la LPDDR5X transforment le marché
Pour comprendre la situation, il est utile d'examiner le fonctionnement de la production de DRAM. Les fabricants de mémoire investissent des sommes considérables dans la construction et la modernisation de leurs usines. En période de faible demande, ils réduisent leur production ou reportent les mises à niveau afin d'éviter la surproduction. Lorsqu'une demande explose soudainement, il est impossible d'augmenter instantanément les capacités de production.
Le marché de la DRAM se tend déjà. La DRAM standard, qui comprend les puces courantes équipant aussi bien les ordinateurs de bureau que les serveurs d'entrée de gamme, devient plus difficile à trouver à bas prix. Parallèlement, Nvidia et d'autres fournisseurs de matériel dédié à l'IA augmentent considérablement la production de leurs produits pour répondre à la demande croissante en intelligence artificielle.
La mémoire LPDDR5X joue ici un rôle clé. Elle offre :
- Bande passante élevée permettant d'alimenter très rapidement les puissants GPU et accélérateurs en données.
- Consommation d'énergie réduite par rapport aux anciens types de mémoire, ce qui la rend idéale pour les systèmes haute densité.
- Un format physique plus compact est essentiel pour optimiser l'espace disponible dans une même baie.
Nvidia devrait acheter d'énormes quantités de mémoire LPDDR5X. Cette demande n'est pas un phénomène passager. Lorsque les fabricants de puces consacrent une part importante de leur capacité de production limitée à la LPDDR5X pour répondre aux besoins de ces grands clients du secteur de l'IA, la disponibilité d'autres produits DRAM diminue. Cela risque de compromettre l'approvisionnement en modules plus traditionnels utilisés par les serveurs et les PC au quotidien.
Il en résulte une réaction en chaîne. La mémoire LPDDR5X, de plus en plus gourmande en capacité, voit son approvisionnement se raréfier pour les autres types de mémoire, ce qui entraîne une hausse générale des prix. Les fabricants de serveurs, de PC de jeu et de stations de travail sont alors contraints de payer plus cher pour une même quantité de mémoire, et ces coûts supplémentaires se répercutent généralement sur les consommateurs.
Pourquoi le prix de la mémoire serveur pourrait doubler
Counterpoint Research tire la sonnette d'alarme concernant les modules RDIMM pour serveurs. Il s'agit de modules DIMM enregistrés, un type de mémoire haute fiabilité utilisé dans les centres de données et les serveurs d'entreprise, et non dans les configurations domestiques classiques. Ils sont essentiels pour les services cloud, le big data et les fermes d'entraînement d'IA.
D'après leurs prévisions, le prix des barrettes RDIMM pour serveurs pourrait doubler en 2026 par rapport à aujourd'hui. Plusieurs facteurs expliquent cette évolution :
- L'explosion des charges de travail liées à l'IA et au cloud pousse les géants de la tech à étendre leurs centres de données pour prendre en charge les services d'IA, le streaming et les jeux en ligne. Chaque nouveau serveur est généralement doté d'une mémoire supérieure à celle de la génération précédente.
- Passez aux modules haute densité : les processeurs et accélérateurs modernes prennent en charge davantage de canaux mémoire et des barrettes DIMM de plus grande capacité. Cela implique plus de puces par module et un coût unitaire plus élevé.
- Expansion limitée des usines de DRAM : La construction ou la modernisation d’usines de fabrication de DRAM est un processus lent et coûteux. Même si la demande augmente rapidement, la croissance de l’offre est beaucoup plus progressive.
- Face à la demande croissante de LPDDR5X alimentée par Nvidia , les fabricants de DRAM se disputent les commandes premium de LPDDR5X et d'autres produits à forte valeur ajoutée, tandis que la DRAM standard pour serveurs se retrouve en concurrence pour les capacités de production restantes.
Si cette tendance se confirme, les fournisseurs de services cloud et les entreprises clientes devront repenser la conception de leurs systèmes. Au lieu d'allouer systématiquement plus de mémoire à chaque charge de travail, ils pourraient adopter une approche plus sélective, en misant davantage sur l'optimisation, la compression et une conception logicielle prenant en compte la mémoire afin de maîtriser les coûts.
Pour les joueurs et les passionnés, cela pourrait se traduire par des prix plus élevés pour les systèmes préassemblés, notamment ceux destinés à la création de contenu et aux flux de travail assistés par l'IA. Les ordinateurs de bureau haut de gamme faisant également office de petits laboratoires d'IA ou de stations de travail pour créateurs utilisent souvent les mêmes types de puces DRAM que les modules de serveurs, avec un conditionnement différent.
En revanche, les fabricants de mémoire devraient bénéficier de marges plus importantes et privilégier les produits haut de gamme. On pourrait observer un intérêt accru pour les technologies de mémoire avancées et une adoption plus rapide des nouvelles normes, les fournisseurs cherchant à conquérir ce segment à plus forte valeur ajoutée.
Counterpoint Research met en garde le secteur : il est temps de se préparer. Les concepteurs de matériel, les opérateurs de cloud et même les joueurs qui prévoient d'importantes mises à niveau dans les prochaines années doivent s'attendre à ce que la mémoire représente une part plus importante de leur budget global.
En résumé, la DRAM est en train de devenir la nouvelle ressource la plus convoitée à l'ère de l'IA. Avec Nvidia qui mise tout sur la LPDDR5X et les centres de données avides de toujours plus de capacité, l'époque où la mémoire était bon marché touche à sa fin, et 2026 pourrait bien être l'année où tout le monde en ressentira vraiment les effets.
Article et image originaux : https://www.tomshardware.com/pc-components/dram/nvidias-demand-for-lpddr5x-could-double-smartphone-and-server-memory-prices-in-2026-seismic-shift-means-even-smartphone-class-memory-isnt-safe-from-ai-induced-crunch
