Demande de moratoire sur l’intelligence artificielle : quelles solutions, un mois plus tard ?

Demande de moratoire sur l’intelligence artificielle : quelles solutions, un mois plus tard ?

Le 29 mars dernier, une lettre ouverte signée par de nombreux chercheurs et experts de l’intelligence artificielle, dont Yoshua Bengio et Elon Musk, secouait tout l’écosystème de l’innovation, alors que des centaines de signataires se disaient inquiets quant aux « graves risques pour la société et l’humanité » que comportait, selon eux, le développement effréné de l’intelligence artificielle. Où en sont aujourd’hui les têtes pensantes et dirigeantes dans leur réflexion, et quelles mesures d’encadrement entrevoient-elles pour répondre à ces enjeux ?

Il y a quelques années, les avancées de l’intelligence artificielle ne suscitaient pas le même engouement auprès du grand public. L’IA, aussi omniprésente qu’elle l’était dans notre quotidien, se voulait plus implicite qu’aujourd’hui. Au fil du temps, elle s’est vu démocratiser auprès de la société civile, sous forme dite « générative », au travers d’outils de création artificielle et de robots conversationnels comme Midjourney et ChatGPT, désormais sur toutes les lèvres. Devant l’onde de choc puissante que ces innovations ont engendrée, on a vu se lever des acteurs du monde artistique, de l’éducation, du milieu juridique et de nombreuses institutions, pour manifester le besoin d’un encadrement et d’une gouvernance qui font cruellement défaut au progrès de l’IA.

Mais l’indice révélateur du point tournant que prend l’innovation dans le secteur est qu’aujourd’hui, ce sont les chercheurs eux-mêmes qui se mobilisent pour y mettre un frein. On se souvient de la pétition lancée à la fin du mois de mars par le Future of Life Institute, qui, signée par des sommités de partout dans le monde, incluant le fondateur et directeur scientifique de Mila, Yoshua Bengio, réclamait un moratoire pour suspendre la recherche dans le secteur. Ils y demandaient « à tous les laboratoires d’intelligence artificielle d’interrompre immédiatement, pour une durée d’au moins six mois, la formation de systèmes d’intelligence artificielle plus puissants que GPT-4 », évoquant de « graves risques pour la société et l’humanité ».

Un mois plus tard, il convient de se demander ce que les dirigeants et autorités du paysage scientifique ont à proposer en réponse à ces enjeux : quels sont les mécanismes visant à limiter les dérapages que les gouvernements et nos institutions entendent soutenir ?

Des forums de discussion

Rencontré il y a deux semaines par CScience, le ministre de l’Économie et de l’Innovation du Québec, Pierre Fitzgibbon, en réponse aux inquiétudes soulevées dans cette lettre, l’a qualifiée d’appel à la prise de conscience « pour que les gens réalisent que ce qui se passe à l’extérieur, par les GAFAM, principalement (…) c’est préoccupant ». Il a promis que « Ce qu’on va faire, en tant que gouvernement, c’est qu’on va profiter de notre leadership dans le domaine pour faire preuve d’avant-garde et travailler avec M. Bengio, Luc Vinet d’Ivado, et d’autres ». Il a précisé que « le Conseil de l’Innovation du Québec (CIQ) a été mandaté par le gouvernement pour travailler avec eux et dire : communiquons avec le public pour dissiper la confusion, parce qu’il y a beaucoup de confusion quant à l’IA », et qu’ « il y aura probablement un cadre législatif à mettre en place pour bien encadrer tout cela », a-t-il annoncé.

Pierre Fitzgibbon veut légiférer en matière d’intelligence artificielle

Ainsi, tout juste après une rencontre non partisane organisée le 12 avril dernier avec des experts de l’écosystème québécois de l’IA et des élus de différentes formations politiques, le gouvernement du Québec a en effet officialisé le mandat confié au CIQ de « coordonner une réflexion collective qui contribuera à définir les enjeux soulevés par l’IA pour assurer son développement et son utilisation éthique et responsable ».

« Cette réflexion collective permettra au Québec de se doter d’une vision à la fois responsable et ambitieuse, où l’IA sera mise au service du développement économique, culturel, social et environnemental. Nous prévoyons communiquer la démarche ainsi que l’échéancier de ces travaux au cours des prochains jours. »

– Luc Sirois, Innovateur en chef du Québec

Le CIQ coordonnera ainsi des séances de réflexion auxquelles prendront part des groupes d’experts aux profils variés afin d’établir un cadre pour le développement éthique et responsable de l’IA. Des forums publics seront donc organisés pour permettre tant à des intervenants issus du monde de l’IA qu’à des représentants de la société civile de s’exprimer et contribuer aux échanges. Les groupes de discussion seront menés par, entre autres, le Scientifique en chef du Québec, Rémi Quirion, la présidente-directrice générale du CIRANO, Nathalie de Marcellis-Warin, le président-directeur général de Scale AI, Julien Billot, et la présidente de l’Ordre des ingénieurs du Québec, Sophie Larivière-Mantha.

L’exercice vise à permettre d’aiguiller les autorités gouvernementales dans la prise de décision concernant les politiques publiques en IA. Le contenu émanant des échanges qui auront transparu sera rendu public, et l’on prévoit que le dépôt des recommandations du CIQ ait lieu à l’automne 2023.

« Cette réflexion collective permettra au Québec de se doter d’une vision à la fois responsable et ambitieuse, où l’IA sera mise au service du développement économique, culturel, social et environnemental. Nous prévoyons communiquer la démarche ainsi que l’échéancier de ces travaux au cours des prochains jours », a indiqué l’Innovateur en chef du Québec et directeur général du CIQ, Luc Sirois.

IAR³ d’IVADO

Vendredi dernier, le ministre François-Philippe Champagne a annoncé l’octroi d’une subvention de pas moins de 124,5 M$ pour soutenir le projet IAR³ d’IVADO, porté par l’Université de Montréal, en partenariat avec Polytechnique Montréal, HEC Montréal, l’Université Laval et l’Université McGill.

Le projet vise à développer une intelligence artificielle robuste, raisonnante et responsable, grâce au Fonds d’excellence en recherche Apogée Canada.

« (Le projet IAR³ consistera d’abord) à mettre au point des systèmes d’IA plus modulaires, évolués et explicables, tout en intégrant dès leur design les enjeux humains. »

– Luc Vinet, directeur général d’IVADO

L’équipe qui en aura le mandat, formée de Yoshua Bengio et de plusieurs centaines de chercheurs de disciplines variées, incluant 48 professeurs, verra le défi s’articuler autour de trois volets, déterminés en fonction de caractéristiques établies comme étant incontournables : l’IA robuste, « pour pouvoir compter sur des modèles et des applications solides », l’IA raisonnante, « pour développer une IA explicable, causale et modulaire », et enfin, l’IA responsable, « pour s’assurer d’avoir une IA éthique et inclusive ».

On indique que le consortium de recherche ciblera d’abord quatre secteurs désignés : « la découverte de nouvelles molécules pour la transition énergétique et la santé, la remédiation aux urgences environnementales, l’instauration de systèmes de santé apprenants et la gestion des chaînes d’approvisionnement en contexte d’incertitude ». Les chercheurs d’IVADO s’engagent, dans le cadre du projet, à mettre l’IA « au service de la société », et à y « associer les communautés autochtones et sous-représentées dans les dimensions autant de la recherche que de la mobilisation des connaissances d’IAR³ ».

Il s’agira, au travers d’IAR³, d’établir des normes pour encadrer rigoureusement l’élaboration des algorithmes, et prévenir les dérives potentielles de l’IA, telles que celles attribuables aux biais. La première étape consistera à « mettre au point des systèmes d’IA plus modulaires, évolués et explicables, tout en intégrant dès leur design les enjeux humains », indique le directeur général d’IVADO, Luc Vinet.

Le Cercle-i

Francis Nadeau, président du Cercle-i. (Photo : courtoisie)

En marge de ces développements, des regroupements et initiatives lancés bien avant la demande de moratoire, gagnant à être connus, ont aussi l’objectif de favoriser les échanges entre intervenants en vue de mieux encadrer la transformation numérique et l’usage des données. Le Cercle d’innovation (Cercle-i) en est le parfait exemple.

Fondé il y a un an et demi, selon « une perspective très citoyenne », tel que nous le mentionne en entrevue son président Francis Nadeau, l’organisme s’inspire du modèle d’incubateur d’entreprises pour soutenir le développement de projets en transformation numérique, « en facilitant la planification, l’organisation et la mise en place d’écosystèmes de confiance ». Pour ce faire, Cercle-i participe à la création de communautés innovantes, mobilisant et mettant en relation divers intervenants pour propulser des projets qui ont des retombées positives sur la société.

« On s’est rendu compte, il y a quelques années déjà, que le véritable obstacle pour mettre ces projets en œuvre, c’était la difficulté de mobiliser les différents intervenants impliqués et concernés autour d’une même table. »

– Francis Nadeau, président et cofondateur de Cercle-i

« Le Cercle-i a été développé parce qu’il y a beaucoup de projets qui nécessitent des gouvernances technologiques collaboratives », entame le président et cofondateur, également PDG d’HydraLab, une société qui développe des technologies de décentralisation. « Aujourd’hui, les projets sont menés avec la volonté d’augmenter le niveau de mobilisation de la donnée, d’avoir une meilleure intégrité de la donnée et une meilleure certification de sa provenance, et on s’attend à ce qu’il y ait de plus en plus de dépôts communs de données, sous différentes formes, allant des certificats scolaires, à ceux de compétences, en passant par les attestations de paie ou de vaccin, etc. Différents types de données devront donc reposer sur des principes de gouvernance », remarque M. Nadeau.

Relever le « gros défi »

« On s’est rendu compte, il y a quelques années déjà, que le véritable obstacle pour mettre ces projets en œuvre, c’était la difficulté de mobiliser les différents intervenants impliqués et concernés autour d’une même table. Prenons l’exemple d’un assureur, qui souhaiterait développer une application ‘nouveau genre’, et qui dresserait la liste de ses besoins : un architecte d’entreprise, des experts en cybersécurité, expérience utilisateur et conformité, un avocat, etc. Bien vite, il se rendrait compte que de se doter de ces ressources est difficile, même à l’interne, et c’est sans compter le fait que tous ces acteurs devront adopter une vision commune pour orienter les décisions et la collaboration. Si l’on a besoin de bénéficier de technologies émergentes pour faire des dépôts communs, des registres collaboratifs, accommoder la mobilisation de données entre plus de deux intervenants, alors la mise en orchestration de tout cela devient compliquée, surtout lorsque les intervenants qui pourraient y collaborer sont du même petit milieu et se trouvent à être des compétiteurs. Cela prend donc une zone neutre. » C’est là que le Cercle-i entre en jeu…

« Nous aidons le volet de la gestion de projets de nature collaborative, en facilitant l’interaction humaine requise pour mener à bien ces projets de gouvernance de données, en mobilisant les bonnes personnes, telles que des experts neutres qui pourront donner des avis externes. Pensons à des experts de l’École de technologie supérieure (ÉTS), de l’Académie de transformation numérique (ATN), du Centre de recherche informatique de Montréal (CRIM), etc. »

Une plateforme collaborative

Si, pour l’instant, le Cercle-i n’a pas encore permis le développement de cadres normatifs de gouvernance, il peut tout de même se targuer d’avoir mis en place d’importantes ressources facilitant la concertation autour de ces enjeux, et d’avoir développé une plateforme qui permet de faciliter la collaboration humaine.

« Imaginez que vous meniez un projet impliquant des données sur l’eau, requérant de collaborer avec des ressources municipales, ou encore des organismes de recherche. Si un chercheur, qui souhaite y contribuer, dispose d’une adresse ou d’un moyen de contact propre à son organisation, alors il nous suffit d’entrer ses informations sur la plateforme, puis d’ouvrir des délégations d’accès pour créer des canaux de communication synchrones propres au projet, des répertoires collaboratifs, etc. Ces ressources, qui peuvent sembler banales, peuvent s’avérer très utiles lorsqu’elles se substituent aux documents Word annotés et aux échanges de courriel pour coordonner les horaires. »

Pour avoir accès à la plateforme, ou pour suivre les développements et actualités de Cercle-i, il suffit de se rendre sur le site web de l’organisme, à cercle-i.ca.

Pour entendre le président de Cercle-i, Francis Nadeau, ainsi que l’Innovateur en chef du Québec, Luc Sirois, la présidente-directrice générale du CIRANO, Nathalie de Marcellis-Warin, ainsi que d’autres experts aborder les enjeux de gouvernance et d’éthique de l’IA, visionnez l’émission C+Clair portant sur l’IA de confiance, offerte en rediffusion sur notre plateforme :

[Émission C+clair] Peut-on faire confiance à l’intelligence artificielle ?

Crédit Image à la Une : Yoshua Bengio en présentation lors du Techaid, à Mila – Institut québécois d’intelligence artificielle