La question de la durabilité quand on parle d'IA est tout sauf théorique, selon le professeur Bjorn Cumps, expert en innovation des services financiers et FinTech à la Vlerick Business School. « Nous avons tous adopté l'idée que l'intelligence artificielle offre des solutions plus intelligentes, mais nous restons trop souvent dans l'ignorance de son coût caché : une empreinte énergétique en augmentation exponentielle. Il est temps de nous mettre à utiliser ces outils de manière plus responsable », déclare-t-il. L'IA évolue et devient de plus en plus gourmande en énergie. Pour le professeur Cumps, la seule façon de faire en sorte que cette croissance reste dans les clous en termes de durabilité est d'utiliser l'IA de manière plus raisonnée, au travers d'infrastructures plus écologiques et dans le cadre d'une réglementation plus adaptée.
Bjorn Cumps : Il faut s'en inquiéter, car de nombreux utilisateurs finaux considèrent l'intelligence artificielle et l'informatique en nuage comme quelque chose d'intangible, quelque chose de magique. Mais ce n'est pas de la magie ; c'est à des machines qu'on a affaire, et qui dit machines dit énergie. Chaque fois que vous posez une question à ChatGPT ou que vous générez une image, dans l'ombre, il y a toute une puissance de calcul à l'œuvre. Avec l'IA générative en particulier, il ne s'agit pas simplement d'extraire des données existantes comme dans le cas d'une recherche Google, mais de créer quelque chose de nouveau, et cela nécessite des millions voire des milliards de calculs par requête. Pour cela, il faut des serveurs, des systèmes de refroidissement et une alimentation constante. »
« Les chiffres ont de quoi inquiéter. La puissance de calcul nécessaire dédiée à l'IA double tous les cent jours et le PDG de Nvidia a récemment prédit que la demande centuplerait au cours des prochaines années. Google voulait atteindre des émissions nettes nulles d'ici 2030, mais a finalement vu ses émissions augmenter de 50 % depuis 2019, et ce principalement à cause de l'IA. À bien y regarder, on comprend vite que cette situation n'est pas viable - du moins, pas à la cadence actuelle. »
« C'est délicat, car nous comparons souvent des choses totalement différentes. Si vous regardez une vidéo 4K, oui, cela consomme beaucoup d'énergie, mais générer cette vidéo 4K avec l'IA coûte beaucoup plus cher. De même, poser une question à ChatGPT consomme 10 à 15 fois plus d'énergie qu'une simple recherche sur Google. Si l'on multiplie ce chiffre par des milliards de prompts par jour, l'addition est très salée. »
« Disons qu'il faudrait y réfléchir à deux fois, sans culpabiliser pour autant. Générer des images ou des vidéos "pour le plaisir", c'est mettre d'importantes ressources informatiques au service d'activités à faible utilité. Imaginez laisser toutes les lumières allumées en allant vous coucher ; eh bien, il faut appliquer la même logique aux outils numériques. Il ne s'agit pas d'en interdire l'usage mais d'être responsable. Il faut donc se demander : "Est-ce que j'ai vraiment besoin de générer cela ?", "Pourrais-je utiliser un modèle plus petit ?", "Cela vaut-il la peine de consommer toute cette énergie ?", etc. »
« C'est vrai, et c'est là que l'information et la conception entrent en jeu. Les entreprises peuvent faire beaucoup plus pour informer les utilisateurs : des pop-ups suggérant des modèles plus petits, des écolabels de base, voire des "budgets" d'IA qui indiquent votre consommation. Il s’agit de formes d’incitation numérique, et elles fonctionnent. Les utilisateurs ne changeront pas s'ils ne comprennent pas l'impact de leur comportement et si les outils ne les guident pas vers de meilleurs choix. »
« Les centres de données sont en tête de ligne. Ils hébergent les modèles, fournissent l'infrastructure et déterminent dans quelle mesure l'IA est écologique ou non. Leur approvisionnement en énergie, leurs systèmes de refroidissement et leurs pratiques en matière de transparence sont des enjeux essentiels. En Belgique, nous voyons déjà des leaders comme LCL aller au-delà de la conformité et investir massivement dans des pratiques durables, ce qui a valeur d'exemple pour les autres. Mais nous avons besoin d'une pression systémique de la part des législateurs, des utilisateurs et de la concurrence pour hausser la barre à tous les niveaux ».
« Ils peuvent peser sur les exigences de transparence. À l'heure actuelle, la plupart des utilisateurs n'ont aucune idée du type d'infrastructure que leurs requêtes activent, ni si le résultat provient d'une énergie verte ou grise. L'Europe est à l'avant-garde en matière de réglementation, mais même ici, nous n'avançons pas assez vite. »
« Bien sûr. En vérité, nous votons avec nos clics. Si assez de monde se tourne vers des services plus sobres en énergie, les entreprises suivront. Pensez au bio ou aux véhicules électriques, des phénomènes marginaux au départ, mais la demande a modifié le système. La même chose pourrait se produire ici. Éviter la surconsommation. Choisir le modèle le plus efficace. Exiger la transparence. Ne pas utiliser un bazooka pour écraser une mouche. »
« C'est déjà le cas. Il y a d'un côté des entreprises et des travailleurs qui mettent l'IA à profit pour devenir beaucoup plus productifs, et de l'autre ceux dont les emplois sont automatisés mais qui manquent de compétences pour se reconvertir. C'est une question d'accès, mais aussi d'éducation, de perfectionnement et de soutien. L'IA pourrait creuser les inégalités sociales si on laisse faire ».
« Oui, on constate une prise de conscience croissante dans les écoles de commerce, parmi les étudiants et même dans les cercles politiques. À la Vlerick Business School, nous proposons désormais un programme complet d'Executive MBA axé sur la durabilité numérique. Nous aidons les professionnels à se positionner face à ces questions complexes - comment utiliser l'IA pour stimuler la productivité sans que l'environnement en pâtisse, et comment mettre la question environnementale au cœur de la transition numérique.
« Il faut traiter l'IA comme l'électricité, soit quelque chose d'extrêmement utile si l'on s'en sert à bon escient. Tout comme on ne laisse pas la lumière ou le four allumés inutilement, il ne faut pas abuser des outils d'IA. Utilisez-les lorsqu'ils apportent une réelle valeur ajoutée, en vous demandant bien si tel est le cas. »
Quelques chiffres révélateurs pour quantifier l'impact environnemental de l'intelligence artificielle :
Les exemples suivants mettent en évidence le coût énergétique de l'inférence, c'est-à-dire l'utilisation réelle de modèles d'intelligence artificielle pour générer des réponses, compte non tenu de la demande d'énergie (bien supérieure) associée à leur entraînement.
L'entraînement des grands modèles de langage (LLM) a une empreinte hydrique considérable, principalement pour le refroidissement des infrastructures de centre de données nécessaires.
Cette augmentation stupéfiante montre combien chaque nouvelle génération de ChatGPT s'accompagne d'un coût environnemental en constante augmentation.