Quelle est la consommation dans un datacenter ?

Les infrastructures de l’informatique sur le cloud sont principalement constituées de serveurs hébergés dans des data centers. Ils consomment bien sûr de l’électricité, dissipent de la chaleur et ont besoin d’énergie pour assurer leur refroidissement.

Schéma d'un data center affichant un logo sécurité et un nuage pour le cloud

La consommation datacenter est une préoccupation croissante qui va de pair avec leur multiplication. De nombreuses études tentent d’établir l’impact énergétique de ces centres de données. Il est essentiel d’établir la consommation de technologies vitales pour les entreprises dont l’énergie consommée n’a pas augmenté mais bien doublé en quelques années. C’est la première étape pour diminuer les effets négatifs des data centers sur l’environnement.

Les statistiques actuelles donnent le vertige

Les estimations de la consommation annuelle d’électricité des centres de données varient de 200 térawattheures (TWh) en 2018 à 500 TWh en 2020. Le chiffre le plus bas suggérerait que les centres de données consomment 1 % de l’électricité mondiale, mais ce chiffre pourrait être nettement plus élevé. Une dernière étude suggère en effet que la consommation énergétique mondiale des centres de données était de 270 TWh en 2012. Un calcul récent estime que 104 TWh seront utilisés par les centres de données de l’Union européenne en 2020.

Les serveurs, les plus friands en énergie

Le nombre de serveurs est passé d’environ 11 millions en 2006 à environ 18 millions en 2020 dans les nombreux centres de données du monde entier. La puissance consommée est partiellement liée à l’utilisation, exprimée en pourcentage de la puissance maximale. Elle est liée au nombre de prises de l’unité centrale de traitement. Elle est restée stable depuis 2007, soit 118W pour les serveurs à une seule prise et 365W pour les serveurs à deux prises.

L’efficacité énergétique des serveurs est proportionnelle à leur utilisation. Avec une proportionnalité parfaite de la puissance, un serveur à 10 % d’utilisation consommera 10 % de sa puissance maximale. Cette proportion est mesurée par ce que l’on appelle la plage dynamique. C’est le rapport entre la puissance au repos et la puissance maximale. Il peut être affecté par les propriétés du réseau, du matériel, du logiciel de gestion de l’énergie et de la configuration du serveur.

De nouvelles améliorations apportées aux serveurs ont été couplées à de grandes améliorations de l’utilisation des systèmes de gestion des logiciels. Il faut y ajouter un passage à des installations à très grande échelle gérées par les fournisseurs de services cloud où la centralisation autorise une gestion énergétique plus précise. Toutefois, malgré cela, la plupart des serveurs fonctionnent encore rarement à pleine capacité, le taux d’efficacité le plus élevé n’étant que de 50 %. Cela se traduit par 40 000 GWh/an de consommation électrique directe des serveurs aux États-Unis à partir de 2020, dont la moitié peut être gaspillée par des serveurs inactifs.

Le stockage nécessite beaucoup d’électricité

La quantité de données générées par l’humanité augmente chaque année et l’on peut parler de consommation électrique des data. Elles doivent être stockées sur des disques, un équipement numérique électromagnétique avide d’électricité. La puissance consommée par disque varie selon le type de lecteur. La puissance nécessaire au fonctionnement des disques durs n’est pas liée à la capacité. Elle a été estimée à 14W/disque en 2006, diminuant de 5% chaque année pour atteindre 8,6W/disque en 2016.

La puissance des disques durs est restée constante à 6 W/disque depuis 2010, mais la puissance par téraoctet s’est améliorée. La capacité par watt a connu de fortes augmentations, de 3 à 4 fois, entre 2010 et 2020. La consommation totale électrique des data aux États-Unis en 2020 est estimée à un peu plus de 8 000 GWh/an sur un total de 1 000 millions de To de stockage. Avec une durée de vie estimée à 4,4 ans, le nombre de disques déployés est stable, mais la capacité totale augmente.

La consommation d’un réseau est fonction du nombre de ports

Les dispositifs de réseau utilisent une puissance liée au nombre de ports et à leur vitesse. Les datacenters sont certes les résidents d’un lieu précis, mais ils sont connectés à internet. Des estimations de l’intensité énergétique consommée par le réseau mondial vont de 136 kWh/GB en 2000 à 0,004 kWh/GB en 2008. Une estimation plus récente l’a plutôt fixé à 0,06 kWh/GB pour 2015. Ce chiffre diminue de 50 % tous les deux ans mais la topologie du système global devient si complexe et difficile à évaluer que s’en est devenu une science à part entière.

N’oublions pas l’infrastructure elle-même

Le bâtiment du centre de données comprend l’infrastructure nécessaire pour supporter les serveurs, les disques et les équipements de réseau qu’il contient. Cela comprend le refroidissement, la distribution d’énergie, les batteries et les générateurs de secours, l’éclairage, l’extinction des incendies et les matériaux de construction eux-mêmes. Les frais généraux de l’infrastructure sont mesurés à l’aide de l’efficacité de l’utilisation de l’énergie. Il s’agit du rapport entre l’énergie consommée par les composants de l’infrastructure et l’énergie fournie aux serveurs, aux disques et aux équipements de réseau (PUE).

Un PUE de 1,0 signifie que 100 % de l’énergie consommée par les centres de données va à l’équipement informatique. Le PUE moyen de l’industrie est de 1,67 mais varie de 1,11 à 3,0. Dans un centre de données traditionnel, seulement 17,5 % de l’électricité produite par une centrale électrique atteint finalement les serveurs. Ceci est dû aux pertes du réseau combinées aux pertes dans les systèmes de distribution d’électricité au sein du centre de données.

Le Edge Computing, plus que jamais une technologie collaborative

Lire le prochain article

intervenant dell technologies lors de la SCC Digital Week