Au début de ce siècle, l’IA suscitait déjà des interrogations quant à son rôle potentiel dans notre société et sa capacité à remplacer certaines de nos fonctions. Aujourd’hui, elle est omniprésente, tant dans nos entreprises que dans notre quotidien. Entre processus automatisés, synthèse des savoirs et accès généralisé aux données, elle soulève pourtant d’importants enjeux économiques et éthiques à travers le monde, devenant ainsi un axe central de nombreuses législations. Quelles sont les stratégies du Canada en matière de régulation de l’intelligence artificielle (IA), et comment celles de l’Europe nous affectent-elles?
Pour consulter l’article tel que paru initialement dans la revue animée et interactive LES CONNECTEURS :
Le Canada, l’initiateur de réflexions sur l’éthique de l’IA
Bien que l’IA soit synonyme d’innovation et d’optimisation dans divers domaines, elle suscite également des débats importants en matière de régulation, se retrouvant souvent au cœur de nombreuses polémiques.
Sur la frise chronologique rassemblant les quelques pays qui ont légiféré autour de l’IA au cours des dernières années, le Canada est le premier pays à avoir lancé une stratégie nationale en 2017, visant à réguler l’IA, tout en renforçant sa position sur la scène mondiale en matière de développement éthique et responsable de l’IA.
Lancée en 2017, la stratégie nationale d’IA du Canada était la première au monde. La même année sortait la Déclaration de Montréal au Québec.
Cette stratégie, dont les objectifs sont également collaboratifs avec des leaders mondiaux comme les États-Unis, la Chine ou l’Europe, prévoyait également de former une main-d’œuvre qualifiée en IA avec l’aide de chercheurs et d’ingénieurs, afin de maintenir une certaine attractivité aux yeux de chercheurs et d’investisseurs internationaux.
La Déclaration de Montréal est apparue la même année, accentuant d’autant plus la volonté de mettre de l’avant les questions éthiques soulevées par l’IA. Ces préoccupations éthiques relatives au bien-être humain, aux droits fondamentaux, au respect de la vie privée, à la transparence ou encore à la responsabilité, ont contribué à l’instauration d’un dialogue international dans la réglementation de l’IA.
Cette déclaration a d’ailleurs inspiré des initiatives comme les travaux de l’OCDE sur l’IA responsable et la charte de l’IA adoptée par plusieurs pays.
La rédaction s’entretient avec une experte à ce sujet dans cette capsule de LES CONNECTEURS 3 Q/R :
Les influences de l’Europe : législations pour une IA digne de confiance
Si le Canada a pu être l’initiateur d’une vague législative autour de l’IA, cette dernière est aussi fortement influencée par les réglementations instaurées par l’Europe, qui peuvent montrer des points de similitude avec les principes canadiens.
Parmi les législations notoires de l’Europe, on compte le RGPD, un règlement sur la protection des données ayant un impact mondial, y compris au Canada. Entre transparence et contrôle des données, droit à l’effacement ou encore profilage et décisions automatisées, les entreprises canadiennes sont confrontées à des exigences de conformité strictes lorsqu’elles traitent des données provenant de l’UE.
« Il y a quatre niveaux de risques : des applications interdites ou à gros risques, celles qui montrent une nécessité de transparence et celles qui sont considérées avec des risques limités. »
– Nathanael Ackerman, président général de AI4Belgium
Un autre règlement aux incidences internationales concerne l’AI Act, introduit par la commission européenne en 2021 et constituant l’un des premiers cadres réglementaires mondiaux à définir une approche propre à l’IA. Censée s’appliquer d’ici deux ans, comme l’indique le directeur général de la coalition AI4Belgium, Nathanael Ackerman, cette réglementation devrait transformer la façon dont les systèmes d’IA sont réglementés en Europe, tout ayant une influence significative sur le Canada.
Selon le président de AI4Belgium, rencontré à MTL Connecte, le principe général de l’AI Act s’apparente à la distinction des niveaux de risques des applications des systèmes d’IA. Cette catégorisation des risques s’associe au degré d’atteinte des droits et libertés des individus dans la mise en place de technologies utilisant l’IA.
« Il y a quatre niveaux de risques : des applications interdites ou à gros risques, celles qui montrent une nécessité de transparence et celles qui sont considérées avec des risques limités. »
« Il y a une quarantaine de systèmes d’IA qui vont interagir (dans un véhicule autonome). Si on les intègre, qui va être responsable? »
– Nathanael Ackerman, président général de AI4Belgium
L’intérêt de ce règlement est surtout de pointer du doigt les quelques dérives de l’IA dans certaines technologies. Ces cas limites, M. Ackerman les illustre en donnant quelques exemples qui ont accentué ce besoin de régulation de l’IA.
La notion fondamentale de responsabilité s’illustre notamment dans l’exemple du premier accident de voiture autonome chez Tesla, où l’erreur d’interprétation de vision par caméra a conduit à attribuer la responsabilité à la personne se trouvant dans le véhicule. « Il y a une quarantaine de systèmes d’IA qui vont interagir : un système de vision, un système qui calcule la trajectoire, un système de sécurité, un système qui optimise la consommation énergétique, etc.. Si on les intègre, qui va être responsable? »
Un autre exemple évoqué par l’intervenant illustre le principe d’équité, à travers le cas d’Amazon, où un système automatisé de tri des CV, alimenté par l’IA, avait mené à l’élimination des candidatures féminines.
Ces cas démontrent ainsi comment l’AI Act prévoit réguler l’intelligence artificielle en établissant des critères clairs sur ce qui est acceptable ou non en matière d’IA. Il vise ainsi à garantir que les technologies d’IA soient utilisées de manière sûre, transparente et respectueuse des droits fondamentaux des citoyens.
Les entreprises canadiennes, notamment celles qui exportent des produits d’IA en Europe, devront suivre de près ce règlement et être prêtes à se conformer à ces nouvelles exigences.
Quels investissements pour l’IA?
Si ces stratégies visent une IA plus éthique, elles marquent également la volonté des divers pays de renforcer leur attractivité pour les chercheurs et les investisseurs internationaux dans le domaine de l’IA.
De nombreuses entreprises tentent d’ores et déjà d’implanter l’intelligence artificielle dans leur industrie à travers le monde. Nathanael Ackerman fait notamment référence aux investissements majeurs en société d’IA, en indiquant qu’ils sont sept à huit fois plus élevés aux États-Unis qu’en Europe.
« L’inférence sur les émotions, la manipulation et le fait d’aller récupérer des données sans ciblage particulier, ce sont des pratiques qui doivent être contrôlées et potentiellement interdites. »
– Nathanael Ackerman, président général de AI4Belgium
« Il y a une ère pré et post GPT 4. On voit des montants au-delà de 250 milliards de dollars qui sont majoritaires à partir de 2023-2024, ce qui n’était pas le cas en 2010. Cette augmentation de la capacité d’investissement est un facteur clé sur le marché. »
L’arrivée de ChatGPT en 2022 semble pourtant avoir sensibilisé les citoyens aux bouleversements technologiques de l’IA générative. Elle soulève notamment des questions sur la qualité des données, notamment en lien avec l’accès facilité aux informations et les enjeux de propriété intellectuelle.
IA éthique : des réponses non-uniformes sur le globe
L’intelligence artificielle peut ainsi faire consensus sur certains principes de mise en pratique dans plusieurs pays. Pourtant, elle peut être perçue et utilisée de manières diverses dans d’autres puissances mondiales.
On peut notamment référer à certaines pratiques interdites en Europe, mais qui sont pourtant une norme ailleurs. Pensons à la reconnaissance faciale dans les lieux publics ; cette technologie d’ailleurs citée dans l’AI Act, constitue un enjeu d’éthique majeur en Europe, alors qu’en Chine, on l’utilise quotidiennement, au contraire.
Dans le contexte chinois, elle peut aussi servir à renforcer le Social Credit Score qui s’apparente à un système de notation évaluant le comportement des citoyens en fonction de critères variés, tels que la ponctualité, le respect des lois ou la réputation en ligne. La Chine utilise ainsi de nombreuses technologies liées à l’IA pour évaluer ces comportements afin d’autoriser l’accès à certains services et privilèges comme les prêts bancaires, les voyages ou même l’emploi.
« L’inférence sur les émotions, la manipulation et le fait d’aller récupérer des données sans ciblage particulier, ce sont des pratiques qui doivent être contrôlées et potentiellement interdites. » Cet exemple montre comment les enjeux éthiques de l’IA sont influencés par les normes culturelles, soulevant ainsi la question de savoir si le progrès technologique implique toujours un progrès social, selon le contexte.
« 10% des entreprises en Belgique ont implanté l’IA (…) »
– Nathanael Ackerman, président général de AI4Belgium
La Belgique, le pôle d’innovation de l’Europe
À l’échelle de l’Europe, le directeur général de AI4Belgium ne manque pas d’évoquer la Belgique, qui se distingue pour son plan national de convergence, couvrant les questions éthiques et légales de l’IA dans divers secteurs, tels que la cybersécurité, la santé et l’environnement. Ce plan marque ainsi la volonté de la Belgique de renforcer sa compétitivité et de devenir un leader en matière d’IA en Europe. « 10% des entreprises en Belgique ont implanté l’IA (…) L’objectif est d’arriver à 75 % des entreprises en Europe qui intègrent de l’IA d’ici 2030. »
Malgré les enjeux et les réglementations nécessaires de l’Europe, M. Ackerman soutient la position stratégique de la Belgique, qui constitue un marché test pour les technologies émergentes. Classée quatrième dans l’Innovation Scoreboard européen, juste après les pays scandinaves, la Belgique s’affirme ainsi comme pôle d’innovation. Selon l’intervenant, elle partage d’ailleurs des thématiques et des valeurs communes avec les initiatives québécoises en matière de développement technologique.
Crédit Image à la Une : Image à la Une : Mtl Connecte (Photo : Sacha Israël)