Climats chauds, centres de données encore plus chauds
L'informatique moderne repose sur d'immenses centres de données pour alimenter des services allant du cloud gaming et de l'IA aux services web du quotidien. Or, un problème croissant se pose : nombre de ces installations sont construites dans des environnements où la chaleur est tout simplement trop intense pour que le matériel fonctionne correctement.
On compte actuellement environ 9 000 centres de données en activité dans le monde. Selon une analyse récente, la plage de température idéale pour un centre de données se situe entre 18 et 27 degrés Celsius, soit environ 64 à 81 degrés Fahrenheit. C'est la plage optimale pour le fonctionnement fiable des serveurs et des équipements réseau, sans nécessiter un refroidissement excessif.
La réalité est tout autre. Sur les 8 808 centres de données suivis, environ 7 000 sont situés dans des régions où le climat sort souvent de la plage optimale. Plus inquiétant encore, près de 600 d'entre eux fonctionnent dans des zones où la température dépasse régulièrement les 27 degrés. Cela signifie que des milliers de baies de serveurs luttent constamment contre la chaleur ambiante pour rester opérationnelles.
Le refroidissement de tout ce matériel est déjà très énergivore. En 2024, les centres de données ont consommé collectivement environ 415 térawattheures d'électricité, soit environ 1,5 % de la consommation mondiale. Situés dans des régions chaudes, leurs systèmes de refroidissement doivent fonctionner beaucoup plus intensément, ce qui accroît encore la demande en énergie et met à rude épreuve les réseaux électriques locaux.
Il ne s'agit pas simplement d'une question de confort. La surchauffe peut réduire la durée de vie des composants, diminuer les performances et provoquer des pannes et des limitations de débit. Pour tous ceux qui utilisent le cloud gaming, les charges de travail d'IA ou les applications en ligne, cela se traduit par une latence accrue, une instabilité et des coûts plus élevés à terme.
Les technologies de refroidissement évoluent rapidement.
La plupart des centres de données actuels utilisent encore le refroidissement par air. D'imposants systèmes de climatisation soufflent de l'air frais dans les allées de serveurs, évacuant ainsi la chaleur des processeurs, des cartes graphiques, de la mémoire et du stockage, densément regroupés. Cette méthode fonctionne, mais elle est inefficace dans les environnements chauds et humides.
Les chercheurs et les experts du secteur militent actuellement pour une transition rapide vers des technologies de refroidissement plus efficaces. À Singapour, qui dispose d'une capacité de centres de données d'environ 1,4 gigawatts et de températures moyennes avoisinant les 33 degrés Celsius, les ingénieurs testent de nouvelles approches spécifiquement conçues pour les conditions tropicales.
L'une des principales améliorations étudiées est le refroidissement direct des puces. Au lieu de simplement souffler de l'air froid sur les racks, cette méthode utilise un liquide circulant à travers des plaques froides fixées directement sur les composants chauds tels que les processeurs et les accélérateurs. Les liquides étant des vecteurs de chaleur bien plus efficaces que l'air, ils permettent d'évacuer l'énergie thermique plus rapidement et avec une consommation d'énergie totale moindre.
Parallèlement, le refroidissement par immersion gagne du terrain. Dans ce système, les cartes mères des serveurs sont entièrement immergées dans des fluides spéciaux non conducteurs. La chaleur se dissipe directement dans le liquide, qui peut ensuite être pompé à travers des échangeurs de chaleur avec une efficacité bien supérieure à celle des systèmes à air. L'association de ces deux techniques pourrait réduire la consommation énergétique des centres de données jusqu'à 40 % dans certaines configurations.
Les experts prévoient que le refroidissement direct des puces et le refroidissement par immersion ne resteront pas longtemps des technologies de niche. D'ici cinq ans environ, elles deviendront probablement des fonctionnalités standard dans de nombreux nouveaux centres de données, notamment ceux dédiés aux clusters d'IA et de GPU énergivores.
On observe également un intérêt croissant pour l'utilisation de sources d'eau naturelles dans le refroidissement à grande échelle. De grandes installations refroidies à l'eau de mer sont déjà à l'étude. On peut citer en exemple un complexe offshore de données et d'IA situé près de l'île de Hainan en Chine, dont la puissance est souvent comparée à celle de dizaines de milliers d'ordinateurs de jeu haut de gamme. Des concepts comme celui-ci déplacent l'échange thermique vers le milieu marin, ce qui peut contribuer à réduire la dépendance aux refroidisseurs et compresseurs terrestres traditionnels.
Le problème est que ces innovations profitent principalement aux nouvelles constructions. Des milliers de centres de données existants risquent d'être laissés pour compte s'ils ne font pas l'objet de coûteuses rénovations. Nombre d'installations plus anciennes n'ont jamais été conçues pour le refroidissement liquide, les racks GPU haute densité ou les systèmes alternatifs de dissipation thermique. À mesure que la demande en IA et en cloud augmente, ces sites historiques risquent de devenir de plus en plus inefficaces, voire obsolètes.
Le problème d'alimentation à l'origine de la chaleur
Le refroidissement ne représente que la moitié du problème. Tout ce matériel a besoin d'électricité, et l'IA fait exploser les besoins énergétiques. Selon des projections récentes, la demande en énergie liée à l'IA pourrait quadrupler dans les prochaines années.
Pour rester compétitives, certaines entreprises expérimentent des sources d'énergie non conventionnelles. Un centre de données dédié à l'IA fonctionne déjà grâce à une pile à combustible à hydrogène, sans consommation d'eau ni émissions directes. Cela prouve que des solutions énergétiques hors réseau et plus propres sont possibles en pratique, et pas seulement en théorie. Cependant, le déploiement à grande échelle de ce modèle s'avère complexe car l'infrastructure hydrogène est loin d'être aussi développée que les réseaux de gaz ou d'électricité traditionnels.
Les énergies renouvelables, comme le solaire et l'éolien, peuvent apporter une solution, mais elles présentent leurs propres contraintes. Les centres de données nécessitent une alimentation électrique fiable et continue. Pour que les énergies renouvelables intermittentes puissent alimenter une telle charge constante et importante, les opérateurs auraient besoin de systèmes de stockage par batteries massifs et coûteux. Si cela est techniquement faisable, c'est souvent peu rentable pour les grandes installations.
Par conséquent, le secteur technologique s'intéresse de près à l'énergie nucléaire comme solution stable et pérenne pour l'alimentation des infrastructures cloud et d'IA. Des projets de redémarrage de certaines centrales nucléaires anciennes sont déjà en cours, notamment pour soutenir les grandes entreprises technologiques et leurs centres de données. Le nucléaire offre une production dense et régulière, avec de faibles émissions de carbone en fonctionnement, mais il soulève des débats politiques, de sécurité et de coûts complexes.
Face à la hausse des températures, aux besoins croissants en refroidissement, à l'essor fulgurant de l'IA et à la difficulté de développer une énergie propre, l'équilibre devient précaire. De nouvelles méthodes de refroidissement, un choix plus judicieux des sites d'installation et des sources d'énergie alternatives seront indispensables pour que l'infrastructure des jeux vidéo, du cloud computing et de l'IA puisse suivre le rythme sans engendrer de surchauffe du matériel et de la planète.
Article et image originaux : https://www.pcgamer.com/software/ai/80-percent-of-the-worlds-data-centres-have-been-built-in-places-either-too-hot-or-too-cold-for-the-hardware-inside/
