Chat GPT, le petit robot conversationnel qui accélère le calendrier législatif mondial

Chat GPT, le petit robot conversationnel qui accélère le calendrier législatif mondial

L’intelligence artificielle (IA) percole de plus en plus dans nos sociétés. L’onde de choc Chat GPT, disponible au grand public, a révélé l’urgence d’encadrer l’utilisation de l’IA. Les appels à la réglementation se multiplient dans le monde. Même Open AI, qui a mis au point le robot conversationnel, appelle à un encadrement strict dans une note publiée le 22 mai… Avant de se rétracter il y a quelques jours. Où en sont les législations nationales ? Pourrait-on voir une régulation mondiale se mettre en place ?

« Même si Chat GPT a tout accéléré, les gouvernements, en Europe ou au Canada ne se sont pas réveillés le 30 novembre (date de lancement du robot conversationnel), en mesurant la nécessité de lois pour encadrer l’IA. Des projets sont là depuis longtemps. », assure Naim Antaki, avocat associé de Gowling WLG, spécialisé en Droit des affaires et Technologie, au cours du Sommet de l’innovation le 16 mai dernier à Montréal.

L’avocat Naim Antaki remet le prix Gowling WLG lors du Sommet de l’innovation 2023 – Crédit: Nathalie Simon-Clerc

Selon lui, les gouvernements ne sont ni en retard ni en avance, mais leur approche est différente de ce que l’on voit habituellement. « On a consulté pour proposer une loi très générale puis on va s’ajuster avec des règlements en étant sur le terrain », ajoute Maître Antaki. Selon l’avocat de Gowling WLG, les gouvernements veulent ainsi éviter les angles morts pour protéger le citoyen.

ÉTATS-UNIS: L’URGENCE FÉROCE DE RÉGULER

Pourtant, l’ “urgence féroce”, selon les termes de l’américain Antony Blinken, d’une régulation volontaire ou légale, presse les pays démocratiques à faire front contre la Chine. L’empire du milieu, très avancé dans les technologies de rupture (intelligence artificielle, quantique), voudrait bien imposer son projet de régulation baptisé “inspection de sécurité”.

Le Secrétaire d’État américain a profité d’une visite en Europe le 31 mai, pour annoncer un projet de “code de conduite” commun entre l’Union Européenne et les États-Unis. Ce code de conduite, à application volontaire, « serait ouvert à tous les pays partageant les mêmes idées », ont annoncé conjointement Margrethe Vestager, vice-présidente de la Commission européenne chargée de la Concurrence, et Antony Blinken, qui espèrent rallier « nos amis au Canada, au Royaume-Uni, au Japon, en Inde ».

L’EUROPE, UN PROJET DE LOI BASÉ SUR LE RISQUE

En Europe, le projet de loi semble bien avancé. Le vote doit intervenir entre le 12 et le 15 juin 2023. Selon le communiqué émis le 11 mai, « les règles suivent une approche fondée sur le risque et établissent des obligations pour les fournisseurs et les utilisateurs en fonction du niveau de risque que l’IA peut générer ».

L’Union européenne veut s’assurer que l’on respecte les droits de la personne. Les données biométriques sont la cible du législateur du vieux continent. De plus, le citoyen pourra porter plainte contre des systèmes d’IA et recevoir des explications concernant leurs décisions.

L’Europe veut ainsi dessiner sa propre voie et assure qu’ « une fois approuvées, il s’agira des premières règles au monde sur l’intelligence artificielle ».

Nous sommes sur le point de mettre en place une législation historique qui doit résister au défi du temps

– Brando Benifei, co-rapporteur de la commission européenne des lois

“Nous sommes sur le point de mettre en place une législation historique qui doit résister au défi du temps. Il est essentiel de renforcer la confiance de nos citoyens dans le développement de l’IA, de définir une voie européenne face aux changements extraordinaires qui se produisent déjà, et de peser sur le débat politique consacré à l’IA au niveau mondial. », expliquait le co-rapporteur italien, Brando Benifei, après l’adoption du projet de loi en commission.

En attendant la mise en œuvre de la loi européenne, au plus tôt en 2025, le commissaire européen au marché intérieur, Thierry Breton, et le patron de Google, Sundar Pichai, ont conclu une entente le 24 mai pour mettre en place des règles afin d’encadrer l’intelligence artificielle avec des entreprises volontaires.

« Beaucoup de choses peuvent être mises en œuvre sans passer par la loi », a justifié le commissaire européen à l’AFP.

Après avoir appelé à la régulation, Sam Altman, le patron d’Open AI a émis des inquiétudes sur le projet européen, n’excluant pas de cesser d’opérer sur le vieux continent si Open AI ne peut respecter les nouvelles règles.

CANADA, LE RISQUE D’UNE ADOPTION PRÉCIPITÉE ?

Au Canada, le projet de loi C-27, Loi de 2022 sur la mise en œuvre de la Charte du numérique, semble également en bonne voie. L’approche canadienne est similaire à l’approche européenne, basée sur le risque, et met la protection du citoyen au cœur des préoccupations du législateur. Le projet de loi C-27 comprend trois nouvelles lois : Loi sur la protection de la vie privée des consommateurs, Loi sur le Tribunal de la protection des renseignements personnels et des données, Loi sur l’intelligence artificielle et les données (LIAD).

La LIAD, qui traite de la gestion et de l’utilisation des renseignements personnels, retient toutes les attentions du débat politique et scientifique. François-Philippe Champagne, ministre fédéral de l’Innovation, des Sciences et de l’Industrie, verrait d’un bon œil l’adoption rapide de cette loi, avant l’été.

Si le Canada devenait l’un des premiers pays à adopter sa législation, il enverrait un signal fort aux entreprises du monde entier

– Yoshua Bengio et Catherine Régis

Le 19 avril, 75 personnalités canadiennes dont Yoshua Bengio, ont d’ailleurs exhorté les élus canadiens à s’entendre pour adopter la loi au plus vite. « Si le Canada devenait l’un des premiers pays à adopter sa législation, il enverrait un signal fort aux entreprises du monde entier », expliquent les signataires.

Toutefois, cette approche est déjà contestée par d’autres scientifiques qui dénoncent, dans une lettre ouverte du 28 avril, « une approche axée sur le développement économique. La LIAD est déficiente à ce titre et il faudrait des mécanismes de protection permettant de mieux protéger les citoyens. »

Les cosignataires s’inquiètent d’une adoption précipitée de la loi. « La LIAD ne contient qu’une quinzaine de pages alors que son équivalent européen en compte plus d’une centaine », s’étonnent-ils.

LE QUÉBEC MANDATE LE CIQ

Au Québec, c’est l’utilisation éthique et responsable de l’IA qui mobilise les pouvoirs publics. Le ministre de l’Économie, de l’Innovation et de l’Énergie, Pierre Fitzgibbon, appelle de ses vœux un encadrement réglementaire et éthique mieux défini. Le 28 avril dernier, il a mandaté le Conseil de l’innovation du Québec (CIQ) pour « coordonner une réflexion collective qui contribuera à définir les enjeux soulevés par l’IA pour assurer son développement et son utilisation éthique et responsable. » Le dépôt des recommandations du CIQ pourrait avoir lieu à l’automne 2023.

Avec ce mandat, le Conseil de l’innovation du Québec amorcera un dialogue ouvert et non partisan sur l’encadrement responsable de l’IA au Québec

– Pierre Fitzgibbon

« L’IA touche progressivement tous les secteurs de la société, ce qui implique que des balises soient considérées lors de son développement et de son utilisation. Avec ce mandat, le Conseil de l’innovation du Québec amorcera un dialogue ouvert et non partisan sur l’encadrement responsable de l’IA au Québec. À la conclusion de cette consultation, nous allons déterminer les prochaines étapes de ce processus important. », a déclaré M. Fitzgibbon.

Les conclusions du CIQ pourrait bien enrichir la récente loi 25, qui régit la protection des renseignements personnels, entrée en vigueur en septembre 2022, et qui surpasse déjà la Loi sur la protection des renseignements personnels et les documents électroniques du gouvernement fédéral.

LE G7 S’ENGAGE DANS LE PROCESSUS D’HIROSHIMA

« La technologie est globale, les lois demeurent locales, et chaque juridiction a sa propre vision d’une loi juste et équitable. Certains pays sont plus individualistes, d’autres plus collectivistes, mais il faut une harmonisation pour avancer au niveau globale », explique Naim Antaki.

G7 Summit 2023

Le sujet est suffisamment préoccupant pour que les dirigeants du G7 (le Canada, les États-Unis, le Royaume-Uni, l’Allemagne, la France, l’Italie et le Japon) le mettent au menu de leurs discussions le 20 mai dernier à Hiroshima au Japon.

« Nous chargeons les ministres concernés d’établir le processus d’Hiroshima sur l’IA, par l’intermédiaire d’un groupe de travail bâti en coopération avec des organisations internationales, en vue de discussions sur l’IA générative d’ici la fin de l’année », peut-on lire dans un communiqué de presse, à l’issue du sommet.

La technologie est globale, les lois demeurent locales, et chaque juridiction a sa propre vision d’une loi juste et équitable

– Naim Antaki, avocat chez Gowling WLG

Même si les approches nationales peuvent différer, les préoccupations sur la protection de la vie privée et les risques pour la sécurité liés à la désinformation, ont fait l’unanimité. Le G7 veut lui aussi adopter des règles fondées sur le risque et ajoute la défense des valeurs démocratiques à ses préoccupations.

« Nous nous engageons à faire progresser les approches multipartites en vue de l’élaboration de normes pour l’IA, dans le respect de cadres juridiquement contraignants », a ajouté le G7.

La question de l’encadrement de l’IA par les gouvernements est un débat en cours dans de nombreux pays. Les décisions prises dépendront des valeurs, des priorités et des besoins spécifiques de chaque société, ainsi que des compromis entre la réglementation nécessaire et la promotion de l’innovation

– Réponse de ChatGPT à la question “faut-il encadrer l’IA ?”

(crédit photo de Une: Matheus Bertelli – Pexels.com)