La question de l’encadrement de l’IA revient sous les feux des projecteurs avec l’annonce de la création d’un nouvel institut fédéral pour se prémunir des dérapages de l’IA. Doté d’un budget de 50 millions sur cinq ans, ce nouveau laboratoire s’inscrit dans le cadre d’une initiative visant à aider les chercheurs et les entreprises à mettre au point et à adopter ces technologies de manière responsable.
Pour lire cette chronique telle que parue initialement dans la revue animée et interactive LES CONNECTEURS :
La quête d’un cadre éthique
Une initiative qui s’ajoute à de nombreuses autres, dont la finalité est d’établir un cadre de gouvernance de l’IA : Déclaration de Montréal, Charte de l’Unesco, Guide de gestion du risque AI du NIST et bien d’autres sont quelques-unes des propositions de gouvernances de l’IA parues au cours des dix dernières années.
« Étonnamment, aucune de ces propositions n’offre de cadre spécifique pour assurer la préservation de la démocratie. »
Ces initiatives on toutes des points communs que l’on pourrait illustrer par leur implémentation dans la déclaration de l’UNESCO. Quatre valeurs fondamentales doivent régir un système d’IA, qui fonctionnerait pour le bien de l’humanité : il doit respecter les droits de l’homme et la dignité humaine, être juste dans des sociétés pacifiques, assurer la diversité et l’inclusion, et se soucier des environnements et des écosystèmes.
Étonnamment, aucune de ces propositions n’offre de cadre spécifique pour assurer la préservation de la démocratie. S’assurer que les informations issues d’un système d’IA soient vraies et vérifiables, par exemple, ce qui permettrait de lutter contre le phénomène des fausses nouvelles, ne fait jamais partie du programme.
Neutralité scientifique et tentatives de restriction
Plus gênant encore, il semble que la notion de neutralité de la science – qui veut que le progrès ne soit soumis à aucune question éthique ou religieuse voire légale, puisque c’est son application concrète qui l’est -, au cœur de la démarche scientifique depuis les Lumières, soit complètement oubliée par les promoteurs actuels d’une gouvernance forte et restrictive de l’IA.
Ainsi, dans le prolongement de ces propositions éthiques et en les utilisant comme prétexte, on a cherché au cours des derniers mois à réduire l’accès à la capacité de calcul pour l’IA, avec la loi SB 1047, adoptée en Californie en août 2024 pour limiter le droit de concevoir des modèles d’un coût de plus de 100 millions de dollars, ou nécessitant un certain volume de calcul. Par suite du veto du gouverneur de Californie, cette loi n’est pas entrée en vigueur. Sa promulgation aurait eu pour résultat de n’autoriser l’accès aux grands modèles qu’à des organisations (commerciales ou non) suffisamment puissantes ou riches pour faire face au fardeau d’une telle régulation.
« Imagine-t-on des chercheurs publiant une lettre pour faire cesser la recherche scientifique sur l’ARN messager (…) ou les thérapies géniques personnalisées (…), sous prétexte que certains craignent (sans le démontrer) que ces techniques mettent en danger l’humanité? »
Cette tentative de restriction du développement de l’IA pour des raisons éthiques n’était pas une première. Quelques mois plus tôt, en mars 2023, un ensemble de personnalités hétéroclites incluant Elon Musk, Joshua Bengio, Yuval Harari et quelques dizaines de CEO, avec le soutien de l’organisation controversée Future of Life, appelait tous les laboratoires de recherche à un moratoire de six mois sur le calcul de nouveaux modèles. Du jamais vu!
Imagine-t-on des chercheurs publiant une lettre pour faire cesser la recherche scientifique sur l’ARN messager (utilisé dans les vaccins les plus performants) ou les thérapies géniques personnalisées (utilisées dans la recherche sur le cancer), sous prétexte que certains craignent (sans le démontrer) que ces techniques mettent en danger l’humanité? Des physiciens, des biologistes ou des chimistes interdits de laboratoire, parce que leurs travaux peuvent aider à créer des armes Non. Et pourtant, ce qui est inconcevable en matière de santé, de chimie ou de physique semble tout à fait acceptable pour les informaticiens!
Conflits d’intérêts et réalité professionnelle
Plus inquiétant, dans ces deux cas, sous le parapluie de l’éthique et de la protection du public (voire de l’humanité!), on retrouve au côté des scientifiques des lobbystes et des entrepreneurs – Dario Amodei, CEO d’Anthropic était un supporter de la loi SB 1047, tout comme Elon Musk. Un mariage des genres qui laisse planer un parfum de conflit d’intérêts qui, d’ailleurs, existe depuis les débuts de l’IA Générative.
Nombre de professionnels de l’IA qui œuvrent chaque jour à transposer ces technologies dans notre quotidien sont probablement blasés face à ce bruit ambiant. Ils savent que les modèles génératifs, dont la fonction de base est simplement de prédire la séquence la plus probable à partir d’une séquence donnée, présentent peu de risque de se transformer en prédateurs digitaux dont la finalité serait de détruire le genre humain. À vrai dire, aucune démonstration scientifique, concrète et rationnelle n’a apporté la moindre preuve du risque existentiel que l’IA ferait courir à l’humanité.
L’intelligence artificielle n’implique pas de changements radicaux en matière d’éthique. Les cadres de gouvernance qui existent s’appliquent souvent très bien. Un médecin demeure responsable des erreurs produites par l’algorithme d’IA de son système de diagnostic. Le professionnel du secteur bancaire ou des assurances est soumis depuis plus de 40 ans à des régulations qui l’obligent à expliquer la décision de son modèle. Et si votre voiture avec conduite entièrement automatique provoque un accident, c’est vous qui vous retrouverez devant les tribunaux, car le code de la route s’y applique.
Les vrais enjeux négligés
En revanche, personne ne semble ému par le fait que depuis quelques mois, des grands noms de la technologie introduisent face au public des modèles génératifs dont le taux d’erreur n’est pas négligeable. Ces modèles peuvent potentiellement inventer de faux scandales pendant les élections, influençant ainsi le processus démocratique. C’est peut-être par là qu’il faudrait commencer.
Crédit Image à la Une : Microsoft Designer (IA)