À l’ère de l’efficience énergétique, en route vers des datacenters agiles et responsables
Dans un contexte mondial où l’efficacité énergétique est au cœur de tous les débats, les data centers sont souvent pointés du doigt, car énergivores. Ils représentent environ 4% de la consommation énergétique mondiale, en croissance de près de 5% par an (1). Pour réduire la facture économique et écologique, les entreprises travaillent, depuis quelques années, à rendre leurs salles informatiques plus économes en énergie, tout en préservant qualité et continuité de service indispensables à la fourniture des services IT.
Continuité de service et efficience énergétique : un paradoxe ?
La taille de l’univers numérique double tous les quatre ans. Les quelques 2,5 milliards de Go de données créés chaque jour doivent être traitées, stockées et restituées à des utilisateurs de plus en plus exigeants vis-à-vis de la qualité de service. Les data centers, qui hébergent les services IT, doivent donc être conçus et exploités pour réduire au maximum les risques de panne. A cette fin, leurs exploitants ont longtemps privilégié la redondance des équipements techniques, ainsi que la sécurité des installations. Avec pour principal corollaire, un surdimensionnement des systèmes de refroidissement qui représentent, à eux seuls, près de 40% de la facture énergétique globale d’un data center (2). Ce surdimensionnement, qui continue à être observé dans la majorité des salles informatiques, entraine une consommation d’électricité bien supérieure aux besoins réels. Si les prix du kWh en France sont en moyenne 25 % plus bas que dans le reste de l’Europe, cet usage n’est pas responsable d’un point de vue écologique.
Maîtrise de la cascade énergétique : la clé des data centers agiles et responsables
Conscients de ces enjeux économiques et environnementaux, les exploitants de data centers ont commencé à travailler depuis quelques années sur la question de l’efficience énergétique. Ils cherchent désormais à maîtriser l’intégralité de la « cascade énergétique », c’est-à-dire à réduire les consommations à tous les niveaux : composants informatiques, équipements techniques, aménagement et intégration des salles informatiques dans leur écosystème géographique.
Le premier axe d’optimisation concerne les composants IT. Le développement de matériaux supraconducteurs, notamment pour les processeurs, permet par exemple de mieux répartir la chaleur et de travailler à des températures plus élevées – la température communément admise aujourd’hui en salle par les serveurs se situant à 23-24°C, contre 16°C à la fin des années 1980. D’autre part, dans de très nombreux cas, les serveurs sont utilisés à moins de 50% de leur capacité, tout en consommant presque autant d’énergie qu’un serveur chargé à 100%. Leur meilleur dimensionnement, couplé à l’utilisation de technologies comme la virtualisation, permet d’optimiser leur utilisation et leur rendement. Enfin, il est important que la politique d’achats intègre le poids énergétique des équipements informatiques : les plus anciens doivent être remplacés par des matériels de nouvelle génération, moins énergivores, dissipant moins de chaleur et capables de supporter de plus hautes températures.
Second axe : optimiser les équipements techniques les plus consommateurs, c’est-à-dire ceux qui assurent le refroidissement et l’alimentation électrique du data center. Opter par exemple, pour des systèmes de production de froid ou de distribution électrique de nouvelle génération permet à la fois de bénéficier d’un meilleur rendement des équipements et de réduire les consommations et les déperditions d’énergie.
L’architecture du centre informatique constitue le troisième paramètre clé dans la réduction de la consommation d’énergie. Prenons le cas d’un data center fonctionnant à 75% de son niveau de charge IT. Son coût d’exploitation est six fois moindre que celui d’une salle informatique dont le taux de charge est de 10%. Le taux de remplissage n’est cependant pas toujours à son plus haut niveau et les besoins d’hébergement évoluent à hausse comme à la baisse. Afin de répondre à cette volatilité, les data centers sont de plus en plus conçus de façon modulaire, avec des organes indépendants et adaptables mis en production au fur et à mesure de la montée en charge. Pour les data centers existants, des gains énergétiques et opérationnels importants peuvent être réalisés avec des opérations de réurbanisation des salles, telles que la densification des serveurs au m² (augmentation de la production à surface égale) ou encore le confinement des allées froides et chaudes. A cet égard, le soufflage en vrac est une hérésie, l’air frais n’étant pas directement insufflé vers l’équipement informatique à refroidir. Afin de maximiser l’efficacité des systèmes de refroidissement, il est indispensable de séparer les flux thermiques pour canaliser le froid et le souffler au plus près des équipements en fonction de leur niveau de charge.
Enfin, dernier élément de la cascade énergétique : l’implantation géographique du data center et son intégration dans l’environnement ciblé. Plusieurs paramètres doivent être étudiés, et notamment la température, le degré d’hygrométrie selon les saisons, la pollution atmosphérique. La plupart du temps, les systèmes qui utilisent l’énergie dite gratuite (air, eau) pour refroidir les data centers permettent de réduire de manière conséquente la facture énergétique. Mais, ils doivent être couplés à des humidificateurs et à des systèmes de filtrage. Il est donc nécessaire lors des phases de conception, de bien évaluer les besoins et contraintes liés à l’exploitation future de la salle, pour faire les choix les plus adaptés.
Demain : encore plus d’actions pour des gains énergétiques substantiels
Le secteur des data centers traverse aujourd’hui une phase de transition. Transition qui conduit les exploitants à rechercher à la fois maîtrise énergétique, flexibilité et agilité dans l’exploitation de leur salle. L’innovation et l’évolution des technologies ouvrent la voie à de nouveaux gisements d’économie d’énergie.
Du fait de la capacité des matériels à supporter des températures plus importantes, il est désormais envisageable d’utiliser de manière plus systématique des systèmes de refroidissement qui utilisent la température de l’air extérieur (free-cooling, free-chilling…), des nappes souterraines et cours d’eau (géo-cooling). Par ailleurs, le potentiel des solutions de Data Center Infrastructure Management (DCIM) est encore sous-exploité pour monitorer les salles informatiques et détecter les postes énergivores. Les initiatives pour mieux valoriser la chaleur dissipée en la récupérant pour assurer les besoins de chauffage du reste du bâtiment, voire du voisinage immédiat, offrent de belles perspectives. Enfin, les installations de sources d’énergies alternatives (panneaux photovoltaïques…) pour alimenter une partie des équipements du datacenter, se multiplient partout dans le monde, avec des résultats positifs en matière d’efficience énergétique.
En conclusion, de nombreuses solutions éprouvées existent d’ores et déjà pour faire baisser la facture énergétique des data centers, à tous les niveaux, sans nuire à la continuité de service et sans qu’il soit nécessaire de procéder à des investissements démesurés. Chaque « petite » opération d’optimisation est une pierre à l’édifice écologique et économique. Il s’agit de trouver la bonne combinaison, selon l’existant.
(1) Source : RTE – Réseau de Transport Electrique
(2) Source : Gimélec