« Voix de Leaders » : développer une IA qui s’adapte aux individus, et non l’inverse…

« Voix de Leaders » : développer une IA qui s’adapte aux individus, et non l’inverse…

Le 24 août se tenait l’événement « Voix de Leaders » à Montréal, visant à aborder des enjeux entourant l’intelligence artificielle (IA) de confiance, et la législation qui encadre cette nouvelle technologie.

Organisée par Skema Canada, un centre d’innovation en IA pour les besoins technologiques en pédagogie, la conférence a été menée par Siegfried Usal, PDG et fondateur de Thales Digital Solutions. L’entreprise est « une plateforme d’accélération des affaires numériques », aidant des organisations à adopter des solutions d’intelligence augmentée de confiance.

Pour une IA de confiance

Siegfried Usal

Siegfried Usal. (Photo. LinkedIn)

Pour Siegfried Usal, différentes utilisations des technologies entraînent des problèmes liés à l’interaction entre l’humain et la machine, et à la chaîne de confiance qui se tisse entre les personnes, qui font partie d’un système, et qui interagissent avec la machine. Selon M. Usal, l’IA devient une alliée alors qu’elle « a ce pouvoir de résoudre l’interaction entre l’homme et la machine, d’optimiser (cette) interaction et de restaurer la confiance dans une chaîne complexe ».

« À partir du moment où des décisions sont prises de façon autonome par des équipements – machine à café, grille-pain – qui se déréglent, on réalise que tout ce qui est connecté, comme dans un système de défense, peut être sujet à des conséquences dramatiques si on ne développe pas une IA de confiance. »

– Siegfried Usal, PDG et fondateur de Thales Digital Solutions

L’IA peut aborder ces difficultés, expose M. Usal, d’où l’importance de développer une approche de confiance relative à cette technologie : « On doit avoir un système qui permet de garantir avec certitude que ce qui est proposé par les algorithmes minimise au maximum les risques. C’est ça, l’IA de confiance. »

Ce besoin de minimiser différents risques s’applique non seulement au milieu de la défense, dans lequel M. Usal a longtemps œuvré, mais également en aéronautique, en informatique, en lien avec l’usage des réseaux sociaux, la sécurité des gens, de leurs données, et bien d’autres encore. « À partir du moment où des décisions sont prises de façon autonome par des équipements – machine à café, grille-pain – qui se déréglent, on réalise que tout ce qui est connecté, comme dans un système de défense, peut être sujet à des conséquences dramatiques si on ne développe pas une IA de confiance. »

Selon Siegfried Usal, cette création d’une IA de confiance repose sur quatre piliers : la conformité, l’intégrité, la responsabilité et l’intelligibilité.

Faire de l’inclusion de l’humain une priorité

Différentes nouvelles technologies se programment de manière distincte, que ce soit par une autoprogrammation au contact des données, ou une autoprogrammation au contact de l’environnement, qui inclut parfois l’humain. Concernant l’IA, inclure l’humain dans son développement fait en sorte que « nous (soyons) en train de créer une faculté d’adaptation beaucoup plus humaine (de ses) algorithmes, parce que nous sommes en contact et que nous interagissons avec eux », explique M. Usal.

Il donne l’exemple de ChatGPT : plus l’humain interagit avec cet outil, plus ce dernier s’adapte à son utilisateur. « On est en train d’automatiser de plus en plus la boucle humaine dans l’interaction avec l’IA (…) Si vous vous assurez, au contact des données, du maintien d’un contrôle, d’une intervention et d’une influence humaine, vous vous assurez de créer la confiance entre l’imput (entrée) et l’output (sortie) de l’algorithme, intégré dans un modèle d’IA, par lequel l’humain, l’opérateur, est acteur. »

« L’idée est de rendre l’interaction avec la machine beaucoup plus facile, plus intuitive, parce qu’elle s’adaptera en fonction de chacun des individus avec lesquels elle interagira (…) Si l’humain doit s’adapter à la machine, c’est qu’on a échoué. »

– Siegfried Usal, PDG et fondateur de Thales Digital Solutions

Mais mettre l’IA autant au premier plan ne risque-t-il pas d’exclure des gens de leur propre milieu, qui ne savent pas interagir avec l’IA ? Faudra-t-il des formations pour s’adresser correctement à l’IA ? Pas forcément, croit M. Usal : « En principe, c’est la machine qui s’adapte à l’humain. L’idée est de rendre l’interaction avec la machine beaucoup plus facile, plus intuitive, parce qu’elle s’adaptera en fonction de chacun des individus avec lesquels elle interagira (…) Si l’humain doit s’adapter à la machine, c’est qu’on a échoué. »

L’IA peut-elle être morale?

Siegfried Usal souligne que l’IA est lacunaire, notamment quant à sa capacité à faire preuve de jugement, puisqu’elle fait abstraction des valeurs, de l’histoire, des spécificités individuelles, intrinsèques et émotives des utilisateurs. « Nous n’acceptons pas de dire que l’IA a une capacité de jugement qui permet de prendre des décisions dans des environnements aussi critiques que celui de la défense. Elle est comptable pour nous, mais elle n’est pas morale et ne pourra jamais l’être. C’est pour cela que nous voulons maîtriser ce qui se passe entre les tenants et les aboutissants, en mettant les humains au cœur de l’interaction avec la machine. »

Mais peut-on réellement maîtriser ces aspects, ou encore les contrôler, d’un point de vue légal ? Est-ce illusoire de vouloir légiférer un géant comme l’IA, qui semble évoluer beaucoup plus rapidement que les normes d’utilisation qui l’encadrent ? « Je suis plutôt d’avis qu’il faut légiférer avant qu’après (…) On ne sait pas, aujourd’hui, de quelle façon l’IA va transformer notre monde, mais on n’en a qu’une intuition. L’IA est difficile à légiférer, parce qu’on ne connaît pas sa capacité à remodeler le monde, même si elle en a le pouvoir. »

À lire également :

https://www.cscience.ca/2023/07/14/neurotechnologies-et-implants-cerebraux-un-progres-considerable-mais-effrayant/

Crédit Image à la Une : Roxanne Lachapelle