Avril 2024, l’Europe adopte la réglementation européenne sur l’IA avec le souhait de structurer l’innovation et la commercialisation de solution IA tout en protégeant les citoyens européens. Pourquoi cela? En partie en raison d’un développement ultra rapide des systèmes d’IA et de la démocratisation de l’accès aux systèmes d’IA générative ces deux dernières années. Or, derrière une image ludique d’un pape françois en doudoune, ou une requête à ChatGPT pour demander une trame d’un e-mail, un résumé d’article ou une recette de cuisine, se trouve une réalité écologique négligée par une partie du grand public, et des médias, parfois dissimulée, ou tout simplement inaccessible.
Pour lire cette chronique sous sa forme originale et animée, dans la revue interactive LES CONNECTEURS :
Les événements climatiques extrêmes et la pollution font partie de 10 menaces à court-terme recensées par le Forum économique mondial, et le numérique représente aujourd’hui 3 à 4 % des émissions de gaz à effet de serre dans le monde et 2,5 % de l’empreinte carbone de la France. L’Arcep, Autorité administrative indépendante française de régulation des communications électroniques, des postes et de la distribution de la presse, estime que sans action pour limiter la croissance de l’impact environnemental du numérique, cette empreinte carbone au niveau mondial pourrait tripler entre 2020 et 2050!
Est-il possible de continuer à faire des innovations en IA qui soient responsables, durables et en accord avec des enjeux écologiques? La société civile mondiale peut-elle répondre aux défis planétaires et d’allocation des ressources tout en continuant à innover en IA?
L’IA durable serait-elle une solution?
Une IA durable est une IA dont la conception est l’utilisation est alignée avec les principes du développement durable.
Son objectif est de mettre en place un développement qui répond au présent sans compromettre les capacités des générations futures à répondre aux leurs. Il s’agit, en d’autres termes, d’une vision à long terme qui vise à allier trois dimensions indissociables : (i)sociale (assurer équité sociale pour permettre l’épanouissement de tous, l’essor des comunautés, éliminer et combattre la pauvreté et le respect de la diversité ; (ii) économique (viser l’efficience économique pour créer une économie innovante, prospère, écologique et socialement responsable) ; et (iii) environnementale (maintenir intégrité environnementale pour assurer la santé de tous, la sécurité de tous et préserver l’écosystème).
Ainsi, une IA durable doit prendre en compte, autant que possible, ces trois dimensions afin de proposer des solutions techniques régies par un compromis entre « performance – avantage entreprise/société – respect de l’environnement ».
Plus concrètement, lorsque l’on parle de l’IA durable, il faut distinguer l’IA au service du développement durable de l’IA soutenable, dite aussi IA frugale.
L’IA au service du développement durable
L’IA au service du développement durable, ou « AI for sustainability », vise à utiliser les systèmes d’IA existants ou à en créer de nouveaux pour des problématiques de développement durable. Dans ce contexte, l’IA peut être utilisée pour atteindre un objectif du développement durable (par exemple, la préservation de la biodiversité, l’agriculture intelligente, le développement de villes intelligentes et de véhicules autonomes éco-responsables, le traitement des déchets, etc.), ou être directement conçue et pensée pour respecter les principes du développement durable. Pensons par exemple à une IA digne de confiance et éthique, non discriminante, vis-à-vis d’une catégorie socio-professionnelle ou d’un genre. Dans le second cas, on parle également de « Sustainable AI ».
L’IA frugale
L’IA frugale en est un sous domaine, qui cherche à répondre à des questions telles que « comment peut-on être aussi performant, mais avec un impact écologique moindre? À quel niveau de la chaîne de conception d’une IA peut-on intervenir pour réduire l’impact écologique? L’entraînement? Les données ? L’utilisation ? »
En d’autres termes, l’approche ici est plus orientée technique, afin d’optimiser les systèmes d’IA, leur fonctionnement et donc, par extension, leur consommation énergétique. Parmi les approches d’IA frugale, on compte l’apprentissage par transfert ou « transfer learning », dont l’objectif est d’éviter de devoir réentrainer les systèmes d’IA de zéro en capitalisant sur les connaissances précédemment encodés, afin de les adapter à des nouveaux domaines différents. Cette approche réduit considérablement le volume de données à utiliser, le coût financier nécessaire à la location de processeurs graphiques (GPU), le temps d’entraînement, la consommation électrique nécessaire à l’entraînement et, donc, l’empreinte carbone associée.
Autre méthode technique, l’élagage ou « pruning » consiste à réduire la taille d’un réseau en supprimant des paramètres ou en sectionnant certaines branches du réseau de neurones, voir même des neurones à chaque couche, pour ne conserver que la structure minimale qui porte les informations qui seront réellement nécessaires à la résolution d’une tâche en particulier. L’idée ici est d’accepter une performance réduite très légèrement en faveur d’un gain de temps et de ressource. Enfin récemment, et en lien avec les travaux en éthique computationnelle, les approches neuro-symboliques ont connu un regain d’intérêt de la part de la communauté IA, car cela permet d’allier les connaissances humaines vérifiées et validés à la puissance des réseaux de neurones, afin d’atteindre de très bonnes performances, tout en garantissant un comportement transparent et éthique, en moins de temps et donc un bilan carbone réduit.
« En résumé, l’IA soutenable amène à responsabiliser chaque partie prenante impliquée (…) en passant par les utilisateurs citoyens pour questionner ces derniers quant à leurs usages, à savoir si l’on a vraiment besoin de parler à son frigo, par exemple. »
Que retenir alors ?
En résumé, l’IA soutenable amène à responsabiliser chaque partie prenante impliquée, allant des concepteurs de systèmes d’IA, aux acteurs de l’écosystème politico-socio-économique – pour leur demander quels compromis ils sont vraiment prêts à faire – en passant par les utilisateurs citoyens pour questionner ces derniers quant à leurs usages, à savoir si l’on a vraiment besoin de parler à son frigo, par exemple.
Le dilemme entre IA durable et IA digne de confiance
Selon la réglementation européenne, en IA digne de confiance, les fournisseurs de système d’IA et les utilisateurs professionnels (ceux qui vont inclure un service IA dans leur produits ou service) ont à minima une obligation de transparence et d’information sur les systèmes IA. Depuis la traçabilité des données, à l’explication du comportement du système ou l’interaction humain-machine, il est important que les professionnels soient en mesure d’être transparents pour que leurs clients, les utilisateurs et la société civile dans son ensemble puissent réfléchir, questionner et avancer dans leurs usages.
Pour cela, en IA digne de confiance, il y a un grand sujet sur (i)la traçabilité des jeux de données entraînant un modèle et (ii) l’explicabilité des systèmes IA.
Concernant le premier point, certains recommandent, par exemple, d’entraîner des systèmes IA à partir de zéro pour pouvoir répondre à cette exigence de transparence et de maîtrise du comportement des systèmes. Or, lorsqu’on connaît le coup d’entraînement d’un algorithme d’apprentissage profond, il faut se demander si cela est réellement LA solution. Par ailleurs, il y a aussi un sujet sur les données, leur collecte, leur stockage. Pour une même problématique, si plusieurs parties prenantes souhaitent travailler dessus, chacune va alors chercher à collecter les données, les stocker, les nettoyer, et les analyser selon l’objectif. Une même donnée peut donc se retrouver dupliquée et utilisée par plusieurs! La solution ne résiderait-elle pas dans des entités internationales indépendantes de confiance, qui mettraient à disposition des modèles pré-entrainés déjà expliqués, labellisés et dont l’entraînement a été entièrement documenté, ainsi que des jeux de données labellisés de confiance? D’autres questions se poseraient alors : celle de la gestion, du stockage, de la mise à disposition, celle de la réactivité des instances, etc. Au final, le sujet de l’impact du numérique sur l’écologie sera toujours là sous une autre forme.
Alors l’innovation en IA, un sujet écologique ? Très certainement ! Mais également politico-socio-économique: il est important d’avoir des acteurs privés et publics qui se penchent sur les questions techniques de frugalité, des acteurs sociétaux et gouvernementaux qui vont questionner les usages de la société et poser un cadre quand cela est possible, et des acteurs du paysage médiatique (journalistes) et des citoyens, experts et néophytes, pour continuer à ancrer l’ensemble des décisions, actions, et nouveaux systèmes d’IA dans la réalité du quotidien des humains dans toutes leur diversité cognitive et culturelles.