De l’Europe au Québec : vers une IA de confiance innovante

De l’Europe au Québec : vers une IA de confiance innovante

La première loi au monde en matière d’encadrement de l’intelligence artificielle, l’AI Act, vient d’entrer en vigueur en Europe. Prise pour modèle par les instances et gouvernements des pays de tout le globe, elle a pour visée de limiter les risques de dérives possibles liés au développement de l’IA, tout en stimulant son innovation. Une quête qui motive notamment le secteur de l’innovation québécois, foisonnant d’offres et d’appels de projets en intelligence artificielle.

L’AI Act : un précédent mondial

Adoptée le 1er août 2024, cette législation a pour objectif de garantir que l’IA développée et utilisée au sein de l’UE soit « digne de confiance », en assurant des protections pour les droits fondamentaux des personnes, selon la Commission européenne. Cette réglementation cherche à créer un marché intérieur harmonisé pour l’IA en Europe, en favorisant l’adoption de cette technologie tout en établissant un environnement propice à l’innovation et à l’investissement. La majorité des dispositions de ce texte entreront en vigueur en 2026, bien que certaines règles deviendront obligatoires dès l’année prochaine. Adoptant une approche basée sur le risque, cette loi impose des contraintes proportionnées aux dangers posés par différents systèmes d’IA pour la société. Les systèmes d’IA à risque limité seront soumis à des exigences de transparence très légères, tandis que les systèmes à haut risque, utilisés par exemple dans les infrastructures critiques, en éducation ou en sécurité publique, devront respecter des exigences strictes avant d’être approuvés pour une utilisation dans l’UE.

« Il s’agit du cadre pionnier de l’Europe pour une IA innovante et sûre. Il favorisera le développement d’une IA à laquelle les Européens peuvent faire confiance. Il aidera les PME et les jeunes entreprises européennes à mettre sur le marché des solutions d’IA de pointe », a déclaré la présidente de la Commission européenne, Ursula von der Leyen.

Au Québec

Le Centre de recherche informatique de Montréal (CRIM) est fiduciaire du consortium Confiance IA au Québec. (Photo : Priscilla Freschu, CScience)

Cette nouvelle réglementation marque un tournant historique, suscitant l’engouement d’organisations au Québec chargées d’établir les bases responsables des suites de l’innovation en IA.

« Cette avancée est une opportunité pour réfléchir à la meilleure manière d’intégrer ces nouveaux standards dans notre contexte local. »

– Confiance IA

« L’impact de cette réglementation sur les applications de l’IA sera scruté de près. Cette législation pourrait servir de modèle pour d’autres régions, y compris le Québec et le Canada, dans notre quête pour déployer une IA de confiance respectant les normes éthiques et réglementaires », a commenté le consortium Confiance IA, dont le Centre de recherche informatique de Montréal (CRIM) est fiduciaire.

Créé en juin 2023, et soutenu par le Ministère de l’Économie, de l’Innovation et de l’Énergie, Confiance IA accompagne les industries et entreprises québécoises dans leur adoption des solutions d’intelligence artificielle, le tout dans la conformité, notamment à travers l’élaboration et le déploiement de pratiques et d’outils concrets d’ingénierie pour concevoir des produits et systèmes industriels d’IA de confiance.

Déposer un projet avec Confiance IA

« Nous suivrons attentivement les retombées de cette législation européenne, car elles fourniront des enseignements précieux pour nos propres initiatives en matière de gouvernance de l’IA. Cette avancée est une opportunité pour réfléchir à la meilleure manière d’intégrer ces nouveaux standards dans notre contexte local », suggère Confiance IA, qui reçoit actuellement les soumissions de projets d’innovation en IA et en technologies quantiques, visant à répondre à l’appel du MEIE dans le secteur.

« Confiance IA vient compléter l’écosystème québécois en intelligence artificielle par une approche de co-innovation vraiment appliquée aux besoins des entreprises (…) Pour nous, les partenariats multisectoriels permettent de créer des innovations plus fortes, et de doter les entreprises d’une propriété intellectuelle plus riche. »

– Alice Zachary, gestionnaire de programme pour Confiance IA

Dans un webinaire gratuit, Alice Zachary, gestionnaire de programme pour Confiance IA, décrit la démarche à suivre pour déposer un tel projet, et rappelle les incitatifs sur lesquels mise l’organisation. « Confiance IA vient compléter l’écosystème québécois en intelligence artificielle par une approche de co-innovation vraiment appliquée aux besoins des entreprises.

Marie-Pierre Habas-Gerard, directrice du consortium Confiance IA soutenu par le CRIM, au plateau de l’émission C+Clair du 28 septembre 2023. (Photo : CScience)

Nous avons des entreprises de secteurs d’activités complètement différents, qui viennent travailler ensemble pour partager différents cas d’usage générique, pour pouvoir concevoir des outils précompétititfs, des méthodologies qui permettent de valider que nous avons une IA de confiance. Pour nous, une IA de confiance, c’est une IA sûre, sécurisée, durable, responsable et éthique. » Le lancement d’un projet d’innovation en IA de confiance passerait notamment par la création de partenariats multisectoriels, par exemple, entre l’aéronautique et les télécommunications, ou encore le secteur bancaire et celui de l’agriculture. « Pour nous, les partenariats multisectoriels permettent de créer des innovations plus fortes, et de doter les entreprises d’une propriété intellectuelle plus riche. »

« On a plein de cas d’usage où l’on est arrivés en production, dans la vraie vie, en ayant les utilisateurs de la solution finale dès la première minute de la réflexion du cas d’usage, c’est fondamental. »

– Marie-Pierre Habas-Gerard, directrice du consortium Confiance IA

« L’industralisation, l’oérationnalisation, c’est ce qui démontre la valeur d’affaires. Passer du prototype à la solution d’entreprise, ça veut dire énormément de choses ; il y a aussi les processus d’affaires, l’acceptation des gens qui vont utiliser la solution d’IA et qui doivent être impliqués dès le début (…) On a plein de cas d’usage où l’on est arrivés en production, dans la vraie vie, en ayant les utilisateurs de la solution finale dès la première minute de la réflexion du cas d’usage, c’est fondamental », soutenait Marie-Pierre Habas-Gerard, directrice du consortium Confiance IA soutenu par le CRIM, au plateau de l’émission C+Clair du 28 septembre 2023 dernier, offerte en rediffusion sur la plateforme de visionnement de CScience.

Crédit Image à la Une : Générée avec Microsoft Designer (IA)