1. Accueil
  2. Toutes les actualités
  3. Consommation énergétique des data centers
  4. Quels sont les impacts de l’intelligence artificielle sur les data centers ?
Publié le 24 octobre 2024 Dans la rubrique Consommation énergétique des data centers

Quels sont les impacts de l’intelligence artificielle sur les data centers ?

Depuis la sortie de Chat GPT 3.5 en 2022, l'intelligence artificielle (IA) connait un succès public fulgurant. L’IA, notamment générative, révolutionne les activités intellectuelles et industrielles. Cependant, elle nécessite des capacités de calcul considérables pour entrainer les modèles et algorithmes et engendre des besoins spécifiques en hébergement. Cela a une incidence directe sur les infrastructures IT à déployer ainsi que sur la conception et le refroidissement des data centers. Comment les acteurs du data center anticipent-ils ces changements majeurs ?

L’IA, une riche histoire pas si récente

En 1950, Alan Turing pose une question fondamentale : « Les machines peuvent-elles penser ? ». Il propose le « test de Turing », une expérience destinée à déterminer si une machine peut faire preuve d’intelligence humaine, et ne pas être distinguée d’un humain dans les réponses fournies à une question posée. Cette expérience a posé les bases de la réflexion sur l’IA. Les décennies suivantes ont cependant vu des progrès lents notamment en raison de moyens techniques insuffisants.

Dans les années 90, l’IA connait un nouvel essor grâce aux progrès informatiques, à l’avènement d’Internet et du Big Data, qui permettent des collaborations étendues et la production des volumes de données nécessaires pour entraîner efficacement les algorithmes. Depuis, l’IA est devenue un outil clé dans l’ère du 4.0 avec des recherches appliquées dans des domaines aussi divers que la recherche, la santé, la finance, la bureautique, la modélisation industrielle, le graphisme, la traduction, le codage informatique, etc…

Le machine learning et le deep learning ont pour objectif la création de systèmes capables de résoudre des problèmes de manière autonome, en se basant sur les principes de rationalité et d’imitation de l’intelligence humaine.

Aujourd’hui, le marché de l’IA est entré dans une phase de croissance très active avec la sortie de Chat GPT 3.5 en 2022, une IA dite générative, appliquant des modèles de base permettant de créer du contenu original (texte, images, structures…). Depuis son lancement, plusieurs outils d’IA générative de plus en plus performants ont vu le jour, accompagnés par des moyens financiers considérables.

L’évolution indispensable des data centers à l’heure de l’IA

Pour traiter de grandes quantités de données rapidement afin de résoudre des problèmes complexes comme générer du texte, des images ou encore un plan 2D ou 3D, l’IA nécessite des serveurs avec des processeurs puissants spécifiques. En effet, dans les data centers, le traditionnel CPU (Central Processing Unit) est remplacé par le GPU (Graphic Processing Unit), qui en termes de calcul et d’opération, est 100 fois plus performant que le CPU pour les usages de l’IA, ou par le TPU (Tensor Processing Unit), un circuit intégré spécifiquement développé par Google pour accélérer les systèmes d’IA. Le TPU est environ 2,5 fois plus performant que les GPU déployés actuellement dans les super calculateurs (HPC) des GAFAM. On estime qu’il faut plusieurs milliers voire dizaines de milliers de GPU pour entrainer les plus grands modèles d’IA comme GPT-3 ou GPT-4.

La course à la puissance ne fait que commencer : la nouvelle puce Blackwell dévoilée le 18 mars 2024 par NVIDIA, a pour ambition de soutenir la croissance de l’IA avec des capacités jusque-là jamais égalées.

Ces nouvelles puces embarquées sur les serveurs pour faire fonctionner les technologies d’IA changent radicalement la manière de penser, concevoir et construire, mais surtout de refroidir les data centers et les alimenter électriquement.

Ainsi les data centers actuels doivent être adaptés aussi bien au niveau de leur conception que de leur opération pour répondre aux exigences de l’IA. Les acteurs de la filière data center ont anticipé et s’adaptent à ces nouvelles exigences.

  1. De nouveaux systèmes de refroidissement

La densité des baies, c’est-à-dire la puissance consommée par une armoire de serveurs, représente l’une des différences fondamentales entre les data centers traditionnels et ceux dédiés à l’IA. Les data centers à usage polyvalent ont des densités de puissance moyenne des baies de 5 à 15 kilowatts (kW), tandis que celles de l’IA sont décuplées et peuvent dépasser  100kW par baie. Avec de telles puissance par baie, l’IA ne peut pas être opérée dans un  data center « classique », car la capacité d’échange de l’air n’est pas suffisante pour dissiper de telles densités de puissances calorifiques.

De nouveaux systèmes de refroidissement plus efficaces sont nécessaires, notamment le refroidissement direct par un liquide (DLC), généralement de l’eau, ou l’immersion cooling, qui consiste à immerger les serveurs dans des bains d’huile pour dissiper la chaleur produite. Il faut noter que l’eau circule en boucle fermée, ce qui induit une consommation d’eau très réduite, limitée au remplissage du circuit de refroidissement. Bon nombre de DC français existants ou en projet sont en train d’être adaptés pour ces techniques de refroidissement. D’autres pistes comme le refroidissement par DLC par gaz ou métal liquide sont également à l’étude.

  1. Des infrastructures hybrides

Les infrastructures utilisées pour l’apprentissage des modèles d’IA n’ont pas les mêmes exigences en termes de continuité de service que les infrastructures utilisées dans les centres de traitement de données d’inférence. La tendance qui semble se dégager est plutôt celle de l’hybridation : effectuer l’apprentissage dans un data center plus dense et plus petit et l’inférence dans un data center moins dense voire classique.

Les data centers, à l’heure de l’IA, nécessitent des infrastructures plus flexibles, modulaires et adaptatives. En un mot, des infrastructures hybrides.

Cela pourrait consister également à rapprocher le plus possible le traitement IA des utilisateurs notamment avec les SML (Small Model Language) sur les smartphones. Les data centers Edge maillés et répartis sur les territoires permettent de rapprocher les machines des utilisateurs en allégeant les data centers hyperscales et en réduisant les temps de latence.

  1. Le défi des consommations exponentielles d’énergie

La filière industrielle des data centers est particulièrement engagée dans la réduction des consommations d’énergie. Le PUE (Power Usage Effectiveness indicateur de performance énergétique de référence, plus il est proche de 1 plus le data center est performant) moyen des data centers est passé de 2,5 en 2005 à 1,58 en 2023 [Source PUE moyen]. L’acceptabilité de ses data centers passe par la préservation des ressources électriques pour l’ensemble des usagers. Un partenariat étroit avec l’opérateur français RTE est donc nécessaire pour équilibrer et anticiper les besoins. Selon une étude récente de l’Ademe, les data centers comptaient seulement pour 16 % (contre 79 % pour les terminaux) de l’impact carbone du numérique en France en 2022.

D’après une étude de l’Uptime Institute, la majorité des baies actuelles pour l’apprentissage et l’inférence de l’IA (générative) sont des baies qui consomment moins de 20 kW. Cela signifie que l’IA générative (20 % des usages et de l’utilisation des serveurs et infrastructures dans le monde), n’est pas à ce jour synonyme de densités extrêmes donc de besoins énormes en électricité.

Il est cependant important d’anticiper une forte croissance potentielle des besoins à venir. En effet, l’IAE prévoit que la demande en énergie de l’intelligence artificielle et des cryptomonnaies pourrait doubler entre 2026 et 2030, voire plus selon certains scénarios prospectifs. Cela pose inévitablement la question de la production supplémentaire de cette énergie et de son impact sur l’environnement, et la société tout entière.

Pour maitriser et réduire ces projections de consommation problématique, de nombreuses pistes sont d’ores et déjà évoquées. Pour n’en citer que quelques-unes :

  • L’effacement de consommation en heure de pointe, pour apporter de la flexibilité sur le réseau (les data centers sont généralement pourvus de solutions de productions autonomes comme les GE à biocarburant ou gaz).
  • La trigénération, technologie qui permet de produire, à partir du gaz naturel, de la chaleur, du froid et de l’électricité.
  • Le free cooling qui limite drastiquement les consommations pour la production de froid nécessaire au refroidissement des serveurs.
  • La récupération de la chaleur fatale par les utilisateurs qui en ont besoin, ce qui limite de facto leur consommation d’énergie.
  • Le basculement du traitement des datas d’un data center vers un autre data center, dans une autre zone géographique pour alléger la consommation électrique locale (flexibilité permise grâce au cloud) ;
  • L’utilisation potentielle, et sujette à caution, de mini centrales nucléaires (SMR) jusqu’à 300 MW d’énergie.
  • Le rapprochement du traitement des datas des utilisateurs avec les SML.

Une nécessaire rationalisation des usages et des data centers  dédiés à l’IA

Bien que l’IA induise une consommation énergétique en forte croissance, elle génère déjà d’importants progrès d’efficacité et de productivité. Dans un secteur clé comme la recherche clinique, l’IA a permis la mise au point extrêmement rapide du vaccin contre la Covid-19.

Sans la puissance de calcul et de traitement des data centers, les chercheurs n’auraient pas réussi à traiter et analyser des milliards de données en un temps record. C’est ainsi grâce à l’IA (et aux data centers) que les vaccins ont pu être mis au point et introduits sur le marché aussi rapidement lors de la crise sanitaire du COVID 19.

Le potentiel de l’IA est énorme et les défis liés à son utilisation ne font que commencer. Toutes les parties prenantes sont concernées : les acteurs du data center comme les utilisateurs finaux. Les premiers doivent poursuivre leurs efforts de réduction des consommations énergétiques et de l’impact environnemental au moyen de l’innovation qui a toujours caractérisé la filière. Tandis que les seconds sont partis prenantes et sont responsables de la hausse des consommations. Il est donc essentiel que chacun recherche un usage sobre et responsable des services performants offerts par l’IA au quotidien.

Ils nous font confiance