La question de la durabilité quand on parle d'IA est tout sauf théorique, selon le professeur Bjorn Cumps, expert en innovation des services financiers et FinTech à la Vlerick Business School. « Nous avons tous adopté l'idée que l'intelligence artificielle offre des solutions plus intelligentes, mais nous restons trop souvent dans l'ignorance de son coût caché : une empreinte énergétique en augmentation exponentielle. Il est temps de nous mettre à utiliser ces outils de manière plus responsable », déclare-t-il. L'IA évolue et devient de plus en plus gourmande en énergie. Pour le professeur Cumps, la seule façon de faire en sorte que cette croissance reste dans les clous en termes de durabilité est d'utiliser l'IA de manière plus raisonnée, au travers d'infrastructures plus écologiques et dans le cadre d'une réglementation plus adaptée.

Les consommateurs doivent-ils s'inquiéter de l'énergie consommée par l'IA ?

Bjorn Cumps : Il faut s'en inquiéter, car de nombreux utilisateurs finaux considèrent l'intelligence artificielle et l'informatique en nuage comme quelque chose d'intangible, quelque chose de magique. Mais ce n'est pas de la magie ; c'est à des machines qu'on a affaire, et qui dit machines dit énergie. Chaque fois que vous posez une question à ChatGPT ou que vous générez une image, dans l'ombre, il y a toute une puissance de calcul à l'œuvre. Avec l'IA générative en particulier, il ne s'agit pas simplement d'extraire des données existantes comme dans le cas d'une recherche Google, mais de créer quelque chose de nouveau, et cela nécessite des millions voire des milliards de calculs par requête. Pour cela, il faut des serveurs, des systèmes de refroidissement et une alimentation constante. »

La consommation énergétique de l’IA augmente donc rapidement, mais à quel point ?

« Les chiffres ont de quoi inquiéter. La puissance de calcul nécessaire dédiée à l'IA double tous les cent jours et le PDG de Nvidia a récemment prédit que la demande centuplerait au cours des prochaines années. Google voulait atteindre des émissions nettes nulles d'ici 2030, mais a finalement vu ses émissions augmenter de 50 % depuis 2019, et ce principalement à cause de l'IA. À bien y regarder, on comprend vite que cette situation n'est pas viable - du moins, pas à la cadence actuelle. »

Où situer l'empreinte énergétique de l'IA par rapport à celle d'activités numériques bien connues, comme le streaming en continu ou la recherche sur Internet ?

« C'est délicat, car nous comparons souvent des choses totalement différentes. Si vous regardez une vidéo 4K, oui, cela consomme beaucoup d'énergie, mais générer cette vidéo 4K avec l'IA coûte beaucoup plus cher. De même, poser une question à ChatGPT consomme 10 à 15 fois plus d'énergie qu'une simple recherche sur Google. Si l'on multiplie ce chiffre par des milliards de prompts par jour, l'addition est très salée. »

Devrions-nous repenser la manière dont nous utilisons l'IA au quotidien, en particulier pour les tâches non essentielles ?

« Disons qu'il faudrait y réfléchir à deux fois, sans culpabiliser pour autant. Générer des images ou des vidéos "pour le plaisir", c'est mettre d'importantes ressources informatiques au service d'activités à faible utilité. Imaginez laisser toutes les lumières allumées en allant vous coucher ; eh bien, il faut appliquer la même logique aux outils numériques. Il ne s'agit pas d'en interdire l'usage mais d'être responsable. Il faut donc se demander : "Est-ce que j'ai vraiment besoin de générer cela ?", "Pourrais-je utiliser un modèle plus petit ?", "Cela vaut-il la peine de consommer toute cette énergie ?", etc. »

Mais la plupart d'entre nous ne manquent-ils pas des connaissances techniques nécessaires pour en juger ?

«  C'est vrai, et c'est là que l'information et la conception entrent en jeu. Les entreprises peuvent faire beaucoup plus pour informer les utilisateurs : des pop-ups suggérant des modèles plus petits, des écolabels de base, voire des "budgets" d'IA qui indiquent votre consommation. Il s’agit de formes d’incitation numérique, et elles fonctionnent. Les utilisateurs ne changeront pas s'ils ne comprennent pas l'impact de leur comportement et si les outils ne les guident pas vers de meilleurs choix.  »

Bjorn Cumps, professeur à la Vlerick Business School

Quelle est la place des centres de données dans tout cela ?

« Les centres de données sont en tête de ligne. Ils hébergent les modèles, fournissent l'infrastructure et déterminent dans quelle mesure l'IA est écologique ou non. Leur approvisionnement en énergie, leurs systèmes de refroidissement et leurs pratiques en matière de transparence sont des enjeux essentiels. En Belgique, nous voyons déjà des leaders comme LCL aller au-delà de la conformité et investir massivement dans des pratiques durables, ce qui a valeur d'exemple pour les autres. Mais nous avons besoin d'une pression systémique de la part des législateurs, des utilisateurs et de la concurrence pour hausser la barre à tous les niveaux ».

Quel rôle les gouvernements et les législateurs doivent-ils jouer pour limiter l'impact environnemental de l'IA ?

« Ils peuvent peser sur les exigences de transparence. À l'heure actuelle, la plupart des utilisateurs n'ont aucune idée du type d'infrastructure que leurs requêtes activent, ni si le résultat provient d'une énergie verte ou grise. L'Europe est à l'avant-garde en matière de réglementation, mais même ici, nous n'avançons pas assez vite.  »

Les comportements individuels peuvent-il réellement influencer les pratiques plus générales de l'industrie ?

« Bien sûr. En vérité, nous votons avec nos clics. Si assez de monde se tourne vers des services plus sobres en énergie, les entreprises suivront. Pensez au bio ou aux véhicules électriques, des phénomènes marginaux au départ, mais la demande a modifié le système. La même chose pourrait se produire ici. Éviter la surconsommation. Choisir le modèle le plus efficace. Exiger la transparence. Ne pas utiliser un bazooka pour écraser une mouche. »

La part croissante de l'IA accentue-t-elle la fracture numérique entre ceux qui peuvent suivre et les autres ?

« C'est déjà le cas. Il y a d'un côté des entreprises et des travailleurs qui mettent l'IA à profit pour devenir beaucoup plus productifs, et de l'autre ceux dont les emplois sont automatisés mais qui manquent de compétences pour se reconvertir. C'est une question d'accès, mais aussi d'éducation, de perfectionnement et de soutien. L'IA pourrait creuser les inégalités sociales si on laisse faire ».

Voyez-vous les organisations ou les écoles de commerce commencer à prendre la durabilité numérique au sérieux ?

« Oui, on constate une prise de conscience croissante dans les écoles de commerce, parmi les étudiants et même dans les cercles politiques. À la Vlerick Business School, nous proposons désormais un programme complet d'Executive MBA axé sur la durabilité numérique. Nous aidons les professionnels à se positionner face à ces questions complexes - comment utiliser l'IA pour stimuler la productivité sans que l'environnement en pâtisse, et comment mettre la question environnementale au cœur de la transition numérique.

S'il y a un principe que vous aimeriez voir adopter en matière d'IA, quel serait-il ?

« Il faut traiter l'IA comme l'électricité, soit quelque chose d'extrêmement utile si l'on s'en sert à bon escient. Tout comme on ne laisse pas la lumière ou le four allumés inutilement,  il ne faut pas abuser des outils d'IA. Utilisez-les lorsqu'ils apportent une réelle valeur ajoutée, en vous demandant bien si tel est le cas. »

Le coût caché de l'IA

Quelques chiffres révélateurs pour quantifier l'impact environnemental de l'intelligence artificielle :

Consommation d'énergie

Les exemples suivants mettent en évidence le coût énergétique de l'inférence, c'est-à-dire l'utilisation réelle de modèles d'intelligence artificielle pour générer des réponses, compte non tenu de la demande d'énergie (bien supérieure) associée à leur entraînement.

  • Interroger un modèle d'IA comme ChatGPT peut consommer jusqu'à 10 fois plus d'énergie qu'une recherche Google classique.
  • Les tâches textuelles consomment bien moins d'énergie que la production d'images ou de vidéos.
    • Pour mille inférences de texte, le modèle d'IA le plus efficace utilise l'énergie d'à peine 9 % du rechargement d'un smartphone.
    • En revanche, le modèle d'image le moins efficace consomme l'équivalent de 50 % d'une charge par image générée.

 

Utilisation de l'eau

L'entraînement des grands modèles de langage (LLM) a une empreinte hydrique considérable, principalement pour le refroidissement des infrastructures de centre de données nécessaires.

  • Selon l'Université de Californie, l'entraînement de GPT-3 aurait consommé au moins 700 000 litres d'eau, certaines estimations atteignant même les 3,5 millions de litres.
  • En juillet 2022, le mois où OpenAI a annoncé que GPT-4 avait été entraîné, les centres de données de l'entreprise dans l'Iowa auraient utilisé 43,5 millions de litres, l'équivalent de 17,5 piscines olympiques.

Cette augmentation stupéfiante montre combien chaque nouvelle génération de ChatGPT s'accompagne d'un coût environnemental en constante augmentation.

Partager sur: