Accueil / Chroniques / IA générative : la consommation énergétique explose
AI chip glows with blue energy and power, futuristic processor of artificial intelligence radiates light and lightning. Concept of computer technology, circuit board, cpu, data
π Énergie π Science et technologies

IA générative : la consommation énergétique explose

Anne-Laure Ligozat
Anne-Laure Ligozat
professeure en informatique à l'ENSIIE et au LISN
anonyme
Alex De Vries
doctorant à la School of Business and Economics à l'Université d'Amsterdam
En bref
  • La consommation énergétique de l’intelligence artificielle explose avec l’engouement pour l’IA générative, bien que les données fournies par les entreprises manquent.
  • Les interactions avec des IA comme ChatGPT pourraient consommer 10 fois plus d’électricité qu’une recherche Google classique, d’après l’Agence internationale de l’énergie.
  • En 2026, la hausse de la consommation électrique des centres de données, des cryptomonnaies et de l’IA pourrait s’élever à l’équivalent de la consommation électrique de la Suède ou de l’Allemagne, par rapport à 2022.
  • L’empreinte carbone de l’IA est loin d’être négligeable, ainsi, des scientifiques estiment que l'entraînement du modèle d'IA BLOOM émet 10 fois plus de gaz à effet de serre qu’un Français en une année.
  • Il semble complexe de réduire la consommation énergétique de l’IA, rendant essentielle la promotion de sa sobriété pour l’avenir.

L’intelligence arti­fi­cielle (IA) s’est immis­cée dans de très nom­breux secteurs : médi­cal, numérique, bâti­ments, mobil­ité… Définie comme la « capac­ité d’un ordi­na­teur à automa­tis­er une tâche qui néces­sit­erait nor­male­ment le dis­cerne­ment humain1 », l’intelligence arti­fi­cielle a un coût : son déploiement mas­sif engen­dre des besoins crois­sants en énergie. Les tâch­es infor­ma­tiques néces­saires à la mise en œuvre de l’IA requièrent l’usage de ter­minaux util­isa­teurs (ordi­na­teurs, télé­phones, etc.) et surtout de cen­tres de don­nées. On en recense actuelle­ment plus de 8 000 à tra­vers le monde, dont 33 % se situent aux États-Unis, 16 % en Europe et près de 10 % en Chine d’après l’Agence inter­na­tionale de l’énergie2 (AIE). Les cen­tres de don­nées, les cryp­tomon­naies et l’intelligence arti­fi­cielle représen­tent presque 2 % de la con­som­ma­tion élec­trique mon­di­ale en 2022, soit une con­som­ma­tion élec­trique de 460 TWh. En com­para­i­son, la con­som­ma­tion élec­trique française s’est élevée à 445 TWh en 20233.

La consommation d’électricité de l’IA : un manque de données ?

Quelle part de cette con­som­ma­tion élec­trique est réelle­ment dédiée à l’IA ? « Nous ne le savons pas exacte­ment, répond Alex de Vries. Dans un cas idéal, nous utilis­e­ri­ons les don­nées fournies par les entre­pris­es qui utilisent l’IA, notam­ment les GAFAM qui sont respon­s­ables d’une large part de la demande. » En 2022, Google four­nit pour la pre­mière fois des infor­ma­tions sur le sujet4 : « Le pour­cent­age [d’énergie util­isée] pour l’apprentissage automa­tique s’est main­tenu au cours des trois dernières années, représen­tant moins de 15 % de la con­som­ma­tion totale d’énergie de Google. » Pour­tant, dans son dernier rap­port envi­ron­nemen­tal5, l’entreprise ne four­nit aucune don­née pré­cise sur l’intelligence arti­fi­cielle. Seule la con­som­ma­tion totale d’électricité de ses cen­tres de don­nées est indiquée : 24 TWh en 2023 (con­tre 18,3 TWh en 2021).

Faute de don­nées fournies par les entre­pris­es, la com­mu­nauté sci­en­tifique tente d’estimer la con­som­ma­tion élec­trique de l’IA depuis quelques années. En 2019, un pre­mier arti­cle6 jette un pavé dans la mare : « Le développe­ment et l’entrainement de nou­veaux mod­èles d’IA sont coû­teux, tant sur le plan financier […] qu’environnemental, en rai­son de l’empreinte car­bone liée à l’alimentation des équipements. » L’équipe estime que l’empreinte car­bone de l’entrainement total pour une tâche don­née de BERT, un mod­èle de lan­gage dévelop­pé par Google, équiv­aut env­i­ron à celle d’un vol transat­lan­tique. Quelques années plus tard, les sci­en­tifiques de Google jugent que ces esti­ma­tions sures­ti­ment de 100 à 1 000 fois l’empreinte car­bone réelle. De son côté, Alex de Vries a choisi de s’appuyer sur les ventes d’équipements dédiés à l’IA7. La société NVIDIA domine le marché des serveurs dédiés à l’IA – elle représente 95 % des ventes. En se bas­ant sur les ventes et la con­som­ma­tion des serveurs, Alex de Vries pro­je­tait une con­som­ma­tion élec­trique atteignant 5,7 à 8,9 TWh en 2023, un chiffre faible au regard de la con­som­ma­tion mon­di­ale des cen­tres de don­nées (460 TWh).

Les tâch­es exam­inées dans notre étude et la quan­tité moyenne d’émis­sions de car­bone qu’elles pro­duisent (en g de 𝐶𝑂2𝑒𝑞) pour 1 000 requêtes8. N.B. L’axe des y est en échelle logarithmique.

La révolution de l’IA générative

Mais ces chiffres pour­raient explos­er. Alex de Vries estime qu’en 2027, si les capac­ités de pro­duc­tion cor­re­spon­dent aux promess­es des firmes, les serveurs NVIDIA dédiés à l’IA pour­raient con­som­mer 85 à 134 TWh d’électricité chaque année. En cause : l’explosion de l’utilisation de l’IA généra­tive. Chat­G­PT, Bing Chat, Dall‑E, etc. : ces intel­li­gences arti­fi­cielles générant du texte, des images ou encore des con­ver­sa­tions ont pénétré le secteur à une vitesse record. Or ces IA néces­si­tent beau­coup de ressources de cal­cul et sont donc très con­som­ma­tri­ces en élec­tric­ité. Les inter­ac­tions avec des IA comme Chat­G­PT pour­raient con­som­mer 10 fois plus d’électricité qu’une recherche Google clas­sique d’après l’AIE. Ain­si, si toutes les recherch­es Google – 9 mil­liards chaque jour – s’appuyaient sur Chat­G­PT, 10 TWh d’électricité sup­plé­men­taires seraient con­som­més chaque année. Alex De Vries estime la hausse à 29,3 TWh par an, autant que la con­som­ma­tion élec­trique de l’Irlande. « La hausse con­tin­ue de la con­som­ma­tion énergé­tique, et donc de l’empreinte car­bone de l’intelligence arti­fi­cielle est un phénomène très bien con­nu, com­mente Anne-Lau­re Ligozat. Les mod­èles d’IA sont de plus en plus com­plex­es : plus ils com­por­tent de paramètres, plus les équipements tour­nent longtemps. Et comme les machines sont de plus en plus puis­santes, cela pousse à faire des mod­èles de plus en plus com­plex­es... » L’Agence inter­na­tionale de l’énergie estime pour sa part qu’en 2026, la hausse de la con­som­ma­tion élec­trique des cen­tres de don­nées, des cryp­tomon­naies et de l’IA pour­rait s’élever entre 160 et 590 TWh par rap­port à 2022. Soit l’équivalent de la con­som­ma­tion élec­trique de la Suède (esti­ma­tion basse) ou de l’Allemagne (esti­ma­tion haute).

Esti­ma­tion de la demande d’élec­tric­ité des cen­tres de don­nées tra­di­tion­nels, des cen­tres de don­nées dédiés à l’IA et des cryp­to-mon­naies, 2022 et 2026 (scé­nario de référence)9. Remar­que : la demande d’élec­tric­ité des cen­tres de don­nées exclut la con­som­ma­tion des cen­tres de réseaux de données.

Les besoins en cal­cul de l’IA s’expliquent par dif­férentes phas­es. Le développe­ment d’une IA passe par une pre­mière phase d’apprentissage sur des bases de don­nées, c’est la phase d’entrainement. Une fois le mod­èle prêt, il peut être util­isé sur de nou­velles don­nées : c’est la phase d’inférence10. La phase d’entrainement a focal­isé l’attention des sci­en­tifiques pen­dant longtemps, étant la plus con­som­ma­trice en énergie. Mais les nou­veaux mod­èles d’IA ont changé la donne, comme en témoigne Alex de Vries : « Avec l’adoption mas­sive des mod­èles d’IA comme Chat­G­PT, tout s’est inver­sé et la phase d’inférence est dev­enue prépondérante. » Les récentes don­nées fournies par Meta et Google indiquent qu’elle représente de 60 à 70 % de la con­som­ma­tion énergé­tique, con­tre 20 à 40 % pour l’entrainement11.

La neutralité carbone :  mission impossible pour l’IA ?

Alors que la con­som­ma­tion énergé­tique de l’IA est entachée d’incertitudes, estimer son empreinte car­bone relève du défi pour la com­mu­nauté sci­en­tifique. « Nous sommes en mesure d’évaluer l’empreinte liée à la con­som­ma­tion dynamique de l’entrainement, celle liée à la fab­ri­ca­tion des équipements infor­ma­tiques, mais il reste com­pliqué d’évaluer l’empreinte totale liée à l’utilisation. Nous ne con­nais­sons pas le nom­bre pré­cis d’utilisations, ni la part d’utilisation dédiée à l’IA sur les ter­minaux employés par les util­isa­teurs, souligne Anne-Lau­re Ligozat. Pour­tant, des col­lègues vien­nent de met­tre en évi­dence que l’empreinte car­bone des ter­minaux util­isa­teurs n’est pas nég­lige­able : elle est de l’ordre de 25 à 45 % de l’empreinte car­bone totale de cer­tains mod­èles d’IA. » Anne-Lau­re Ligozat et son équipe esti­ment que l’entrainement du mod­èle d’IA BLOOM – un mod­èle en accès libre – émet de l’ordre de 50 tonnes de gaz à effet de serre, soit 10 fois plus que les émis­sions annuelles d’un Français. Dès lors, dif­fi­cile pour les géants de la tech d’atteindre leurs objec­tifs de neu­tral­ité car­bone, mal­gré les nom­breuses mesures de com­pen­sa­tion pris­es. Google recon­nait dans son dernier rap­port envi­ron­nemen­tal : « En com­para­i­son avec 2022, nos émis­sions […][de 2023] ont aug­men­té de 37 % mal­gré les efforts con­sid­érables et les pro­grès con­cer­nant les éner­gies renou­ve­lables. Cela s’explique par la con­som­ma­tion d’électricité de nos cen­tres de don­nées, qui dépasse notre capac­ité à dévelop­per des pro­jets d’énergie renou­ve­lables. »

Lim­iter le réchauf­fe­ment cli­ma­tique implique une réduc­tion dras­tique des émis­sions mon­di­ales de gaz à effet de serre. L’IA se trou­ve-t-elle dans une impasse ? « Aucun argu­ment avancé par Google pour réduire les émis­sions de l’IA ne tient la route, déplore Anne-Lau­re Ligozat. L’amélioration des équipements impose d’en fab­ri­quer de nou­veaux, émet­tant ain­si des GES. L’optimisation des infra­struc­tures – comme le refroidisse­ment à l’eau des cen­tres de don­nées – déplace le prob­lème sur la ressource en eau. Et la délo­cal­i­sa­tion des cen­tres de don­nées vers des pays avec un mix élec­trique bas car­bone néces­site d’être en mesure de gér­er la demande élec­trique sup­plé­men­taire… » Quant à l’optimisation des mod­èles, si elle réduit effec­tive­ment leur con­som­ma­tion, elle pousse à une util­i­sa­tion accrue… le fameux effet rebond. « Cela tend à annuler les économies d’énergie pos­si­bles, con­clut Alex de Vries. Je plaide prin­ci­pale­ment pour la sobriété des usages de l’IA. »

Anaïs Marechal
1Stu­art J. Rus­sell, Peter Norvig, and Ernest Davis. Arti­fi­cial intel­li­gence : a mod­ern approach. Pren­tice Hall series in arti­fi­cial intel­li­gence. Pren­tice Hall Upper Sad­dle Riv­er, New Jer­sey, third edi­tion edi­tion, 2010.
2IEA (2024), Elec­tric­i­ty 2024, IEA, Paris https://​www​.iea​.org/​r​e​p​o​r​t​s​/​e​l​e​c​t​r​i​c​i​t​y​-2024, Licence: CC BY 4.0
3Site inter­net con­sulté le 26 sep­tem­bre 2024 : https://​analy​seset​don​nees​.rte​-france​.com/​b​i​l​a​n​-​e​l​e​c​t​r​i​q​u​e​-​2​0​2​3​/​c​o​n​s​o​m​m​a​t​i​o​n​#​C​o​n​s​o​m​m​a​t​i​o​n​c​o​r​rigee
4D. Pat­ter­son et al., « The Car­bon Foot­print of Machine Learn­ing Train­ing Will Plateau, Then Shrink, » in Com­put­er, vol. 55, no. 7, pp. 18–28, July 2022, doi: 10.1109/MC.2022.3148714.
5Google, 2024, Envi­ron­men­tal report
6Strubell et al. (2019) Ener­gy and pol­i­cy con­sid­er­a­tions for deep learn­ing in NLP, arX­iv.
7De Vries, The grow­ing ener­gy foot­print of arti­fi­cial intel­li­gence, Joule (2023), https://​doi​.org/​1​0​.​1016/ j.joule.2023.09.004
8Source du pre­mier graphique : ACM Con­fer­ence on Fair­ness, Account­abil­i­ty, and Trans­paren­cy (ACM FAc­cT ’24), June 3–6, 2024, Rio de Janeiro, Brazil
9Source du sec­ond graphique : Prévi­sions de l’AIE basées sur les don­nées et les pro­jec­tions des Data cen­tres and Data Trans­mis­sion Net­works ; Joule (2023) – Alex de Vries, The grow­ing ener­gy foot­print of arti­fi­cial intel­li­gence ; Cryp­to Car­bon Rat­ings Insti­tute, Indices ; Irlande – Cen­tral Sta­tis­tics Office, Data Cen­tres Metered Elec­tric­i­ty Con­sump­tion 2022 ; et Agence danoise de l’én­ergie, Den­mark’s Ener­gy and Cli­mate Out­look 2018
10Adrien Berth­elot, Eddy Caron, Mathilde Jay, Lau­rent Lefèvre, Esti­mat­ing the envi­ron­men­tal impact of Gen­er­a­tive-AI ser­vices using an LCA-based method­ol­o­gy, Pro­ce­dia CIRP, Vol­ume 122, 2024, Pages 707–712, ISSN 2212–8271
11Site inter­net con­sulté le 25/09/2024 : https://​www​.iea​.org/​e​n​e​r​g​y​-​s​y​s​t​e​m​/​b​u​i​l​d​i​n​g​s​/​d​a​t​a​-​c​e​n​t​r​e​s​-​a​n​d​-​d​a​t​a​-​t​r​a​n​s​m​i​s​s​i​o​n​-​n​e​t​works

Le monde expliqué par la science. Une fois par semaine, dans votre boîte mail.

Recevoir la newsletter