Les datacenters sont de véritables gouffres énergétiques. Ils consomment de l’électricité, produisent de la chaleur et nécessitent de l’énergie pour rester frais. La consommation des datacenters est de plus en plus préoccupante avec leur multiplication. De nombreuses études tentent d’évaluer l’impact énergétique de ces centres de données. Il est crucial de connaître la consommation des technologies vitales pour les entreprises, dont la consommation a doublé en quelques années. Cette première étape est essentielle pour réduire les effets négatifs des datacenters sur l’environnement.
Les statistiques actuelles donnent le vertige
Selon les estimations, la consommation annuelle d’électricité des datacenters variait de 200 térawattheures (TWh) en 2018 à 500 TWh en 2020. Le chiffre le plus bas suggère que les datacenters consomment 1% de l’électricité mondiale, mais ce chiffre pourrait être bien plus élevé. Une étude récente suggère que la consommation énergétique mondiale des datacenters était de 270 TWh en 2012. Une estimation récente prévoit que les datacenters de l’Union européenne utiliseront 104 TWh en 2020.
Consommation des serveurs : les plus gourmands en énergie
Le nombre de serveurs est passé d’environ 11 millions en 2006 à environ 18 millions en 2020 dans les nombreux datacenters du monde entier. La puissance consommée est partiellement liée à l’utilisation, exprimée en pourcentage de la puissance maximale. Elle est liée au nombre de prises de l’unité centrale de traitement. Depuis 2007, elle est restée stable, soit 118W pour les serveurs à une seule prise et 365W pour les serveurs à deux prises.
L’efficacité énergétique des serveurs dépend de leur utilisation. Avec une utilisation proportionnelle à la puissance, un serveur utilisé à 10% consommera 10% de sa puissance maximale. Cette proportion est mesurée par ce que l’on appelle la plage dynamique. Elle est affectée par les propriétés du réseau, du matériel, du logiciel de gestion de l’énergie et de la configuration du serveur.
De nouvelles améliorations apportées aux serveurs, associées à de grandes améliorations dans les systèmes de gestion des logiciels, ont permis une utilisation plus efficace. Les installations à grande échelle gérées par les fournisseurs de services cloud ont également permis une gestion plus précise de l’énergie. Cependant, la plupart des serveurs fonctionnent encore rarement à pleine capacité, avec un taux d’efficacité maximale de seulement 50%. Cela se traduit par une consommation électrique directe des serveurs aux États-Unis de 40 000 GWh/an à partir de 2020, dont la moitié peut être gaspillée par des serveurs inactifs.
Le stockage nécessite beaucoup d’électricité
La quantité de données générées par l’humanité augmente chaque année, ce qui a un impact sur la consommation électrique des datacenters. Ces données doivent être stockées sur des disques, qui sont très gourmands en électricité. La puissance consommée par disque varie en fonction du type de lecteur. La puissance nécessaire au fonctionnement des disques durs n’est pas liée à leur capacité. Elle a été estimée à 14W/disque en 2006, diminuant de 5% chaque année pour atteindre 8,6W/disque en 2016.
Depuis 2010, la puissance des disques durs est restée constante à 6W/disque, mais la capacité par watt a augmenté considérablement, passant de 3 à 4 fois entre 2010 et 2020. La consommation électrique totale des datacenters aux États-Unis en 2020 est estimée à un peu plus de 8 000 GWh/an sur un total de 1 000 millions de To de stockage. Malgré une durée de vie estimée à 4,4 ans, le nombre de disques déployés est stable, mais la capacité totale augmente.
La consommation d’un réseau dépend du nombre de ports
Les dispositifs de réseau utilisent une puissance qui dépend du nombre de ports et de leur vitesse. Bien que les datacenters soient situés dans un lieu précis, ils sont connectés à internet. Les estimations de l’intensité énergétique consommée par le réseau mondial vont de 136 kWh/GB en 2000 à 0,004 kWh/GB en 2008. Une estimation plus récente l’a fixé à 0,06 kWh/GB en 2015. Ce chiffre diminue de 50% tous les deux ans, mais la topologie du système global est devenue si complexe qu’évaluer sa consommation énergétique est devenu une véritable science à part entière.
N’oublions pas l’infrastructure elle-même
Le bâtiment du datacenter comprend l’infrastructure nécessaire pour supporter les serveurs, les disques et les équipements réseau qu’il contient. Cela comprend le refroidissement, la distribution d’énergie, les batteries et les générateurs de secours, l’éclairage, l’extinction des incendies et les matériaux de construction. Les frais généraux de l’infrastructure sont mesurés en utilisant l’efficacité énergétique. Le rapport entre l’énergie consommée par les composants de l’infrastructure et l’énergie fournie aux serveurs, aux disques et aux équipements réseau est appelé PUE (Power Usage Effectiveness).
Un PUE de 1,0 signifie que 100% de l’énergie consommée par le datacenter est utilisée par l’équipement informatique. Le PUE moyen de l’industrie est de 1,67, mais il varie de 1,11 à 3,0. Dans un datacenter traditionnel, seuls 17,5% de l’électricité produite par une centrale électrique atteint finalement les serveurs. Ceci est dû aux pertes du réseau combinées aux pertes dans les systèmes de distribution d’électricité au sein du datacenter.
Les datacenters représentent un véritable défi en termes de consommation énergétique. Il est donc essentiel de continuer à travailler sur leur efficacité et d’investir dans des technologies plus respectueuses de l’environnement. L’avenir des datacenters dépend de notre capacité à trouver des solutions énergétiques durables.