[ENTREVUE & ANALYSE] L’Europe cherche à mieux nous protéger de l’intelligence artificielle

[ENTREVUE & ANALYSE] L’Europe cherche à mieux nous protéger de l’intelligence artificielle

Pendant que les sociétés s’attardent au retard qu’elles accusent en la matière, en Europe, on passe à la vitesse supérieure, en vue d’adopter ce qui sera la première législation d’envergure au monde à encadrer le secteur. Notre journaliste, Patricia Gautrin, s’entretient avec l’experte Eve Gaumond, juriste du Québec, pour analyser ce projet de loi historique, et le comparer aux initiatives homologues.

En début de semaine, l’Organisation des Nations Unies pour l’éducation, la science et la culture (UNESCO) et Mila nous rappelaient « Les angles morts de l’intelligence artificielle », au lancement d’un ouvrage portant le même nom, abordant les défis de gouvernance auxquels le Canada et d’autres pays sont confrontés pour assurer l’utilisation responsable et fiable de l’IA. Le 6 janvier 2023, à Strasbourg, le Conseil de l’Europe a rassemblé ses membres pour rédiger une Convention sur l’intelligence artificielle, les droits de l’homme, la démocratie et l’État de droit.

Une nouvelle définition

Le Comité apporte une nouvelle définition des systèmes d’intelligence artificielle

En constante évolution, l’intelligence artificielle nous contraint à revoir et ajourner sa définition afin d’en établir une bonne compréhension pour tous les domaines d’activité. En voici la définition apportée par le Comité sur l’intelligence artificielle :

Un « système d’intelligence artificielle » signifie « tout système algorithmique ou toute combinaison d’un tel système qui, tel que défini ici et dans le droit interne de chaque Partie, utilise des méthodes de calcul dérivées de statistiques ou d’autres techniques mathématiques pour exécuter des fonctions qui sont communément associées à l’intelligence humaine ou qui exigeraient autrement cette dernière, et qui assiste ou remplace le jugement des décideurs humains dans l’exécution de ces fonctions.

Ces fonctions comprennent, sans s’y limiter, la prédiction, la planification, la classification, la reconnaissance des formes, l’organisation, la perception, la reconnaissance de la parole, des sons, des images, la génération de textes, de sons d’images, la traduction de langues, la communication, l’apprentissage, la représentation et la résolution de problèmes. »

Des fonctions qui vont croître rapidement et que nous devons identifier pour bien les gouverner (ou encadrer) si nous désirons protéger nos droits humains, qui peuvent être menacés par tant d’autonomie accordée à ces systèmes.

D’après Eve Gaumond, chercheuse en Droit, IA et technologies au Centre de recherche en droit public de l’Université de Montréal, la manière de définir l’intelligence artificielle est sujette à beaucoup de débats. « En tant que juriste, le plus fondamental pour moi, c’est que l’on s’assure de se doter d’une définition qui soit résistante à l’épreuve du temps. Dans cette optique, je suis mal à l’aise quant aux définitions qui se limitent strictement au machine learning (apprentissage-machine), par exemple, car on ne sait pas si cette approche informatique sera toujours celle qui sera la plus d’actualité, dans trois ou cinq ans. En ce sens, j’aime bien l’approche du conseil du trésor fédéral canadien qui réglemente la prise de décision automatisée, plutôt que l’intelligence artificielle. »

« En ce sens, j’aime bien l’approche du conseil du trésor fédéral canadien qui réglemente la prise de décision automatisée, plutôt que l’intelligence artificielle. »

– Eve Gaumond, chercheuse en Droit, IA et technologies, OBVIA

Elle suggère alors de se concentrer sur ce que la technologie fait, plutôt que sur la manière dont elle le fait. « Il m’importe assez peu de savoir si l’agent conversationnel avec lequel j’interagis fonctionne en s’appuyant sur un système à base de règles, ou sur l’apprentissage par renforcement. Ce qui m’importe est de savoir s’il performe suffisamment bien pour me donner l’impression que j’interagis avec un humain, et si c’est le cas, je souhaite qu’il soit encadré. »

Elle ajoute également que la définition du EU AI ACT, qui prévoyait une annexe dans laquelle on énumérait une série de technique informatiques, qui pouvait évoluer avec le temps, permettait une certaine agilité qui lui plaisait bien aussi. « La définition de la convention cadre me semble être plus à risque de devenir datée rapidement. »

EU AI ACT et le Conseil de l’Europe

Interrogée en entrevue sur le sujet, Eve Gaumond, tient à préciser la différence entre la Loi européenne sur l’IA et la Convention cadre du Conseil de l’Europe. « Le Conseil de l’Europe est une organisation de défenses des droits de l’homme, et se veut distinct de l’Union Européenne. Il compte plus de membres (46 états font partie du conseil de l’Europe alors que seuls 27 états sont membres de l’Union européenne), en plus de poursuivre des objectifs différents. »

De l’autre côté, le AI ACT de l’Union européenne est le « document dont on parle généralement lorsque l’on parle d’encadrement juridique de l’IA en Europe », précise Eve Gaumond.  « C’est en quelque sorte l’équivalent du Règlement Général de protection des données (RGPD). Seulement, plutôt que de s’intéresser à la protection des données personnelles, le AI ACT vise à encadrer le domaine de l’Intelligence artificielle. »

Notons toutefois que pour l’instant, le AI Act n’est encore qu’un projet de loi. Eve Gaumond remarque que certains éléments font toujours l’objet de négociations. Elle précise que le texte final devrait être adopté d’ici la fin de l’année 2023, et qu’il devrait entrer en vigueur environ 36 mois plus tard. « Lorsqu’il sera adopté, il s’agira d’un règlement contraignant qui pourra s’accompagner de pénalités monétaires importantes. Ce sera la première législation du genre à travers le monde. »

La convention du Conseil de l’Europe

La Convention (cadre) sur l’intelligence artificielle, les droits de l’homme, la démocratie et l’État de droit est un document du Conseil de l’Europe. « La convention cadre quant à elle, s’intéresse plus spécifiquement aux droits fondamentaux. »

« La convention cadre quant à elle, s’intéresse plus spécifiquement aux droits fondamentaux. »

– Eve Gaumond, chercheuse en Droit, IA et technologies, OBVIA

Mais le droit qui émane du Conseil de l’Europe est « un peu moins contraignant » que celui de l’EU, précise Eve Gaumond. Le Conseil de l’Europe pourrait se permettre d’aller plus loin, précise-t-elle, en tant que protecteur des droits fondamentaux. « Ce serait intéressant, dans la mesure où l’on reproche souvent au AI Act de ne pas offrir une protection suffisante sur ce plan », ajoute-t-elle.

D’après elle, la Convention est encore relativement peu connue. « Lorsqu’on parle d’encadrement de l’IA en Europe, on parle généralement du AI Act, et non pas de la Convention, qui est encore embryonnaire et qui, à terme, aura probablement moins de mordant. »

Les articles de la Convention

Contre l’État de surveillance:

Toute ingérence avec les droits de l’homme et les libertés fondamentales par une autorité publique ou toute entité privée agissant pour son compte résultant de l’application d’un système d’intelligence artificielle, est compatible avec les valeurs fondamentales des sociétés démocratiques, conforme à la loi et nécessaire dans une société démocratique à la poursuite d’un but légitime d’intérêt général.

Application de systèmes d’intelligence artificielle dans la fourniture de biens, d’équipements et de services

Article 9 – Préservation de la liberté individuelle, de la dignité humaine et de l’autonomie

Article 10 – Accès au débat public et à des processus démocratiques inclusifs

Article 11 – Préservation de la santé publique et de l’environnement

Principes fondamentaux de la conception, du développement et de l’application de systèmes d’intelligence artificielle

Article 12 – Principe d’égalité et d’anti-discrimination

Article 13 – Principe de vie privée et de protection des données à caractère personnel

Article 14 – Principe d’obligation de rendre des comptes, de responsabilité et de responsabilité juridique

Article 15 – Principe de transparence et de contrôle

Article 16 – Principe de sûreté

Article 17 – Principe d’innovation sûre

Article 18 – Consultation publique et mesures additionnelles

L’EU AI ACT comparé à la Convention

Nous avons demandé à Eve Gaumond en quoi ces 7 principes de la Convention ont un reflet dans l’EU AI ACT. Elle remarque certains recoupements mais précise que le AI Act va plus loin en imposant certaines obligations particulières aux systèmes à haut risque. Les obligations touchent les systèmes intelligents qui sont utilisés dans des secteurs plus sensibles (éducation, embauche, crédit, justice, police, etc.).

Eve Gaumond explique la distinction très claire qui transparaît entre «une loi qui s’inscrit dans une logique de protection du consommateur», celle de l’AI ACT et une loi qui s’inscrit dans une logique de «protection des droits fondamentaux», celle de la Convention.

En définitive Eve Gaumond rappelle qu’il est «peu fréquent d’être confronté à une situation où tout est parfaitement noir ou blanc. Les violations de droits fondamentaux sont parfois difficiles à déceler.» Elle ajoute que «le Canada devrait par conséquent travailler à développer des mécanismes d’évaluation des impacts de l’IA sur les droits fondamentaux afin d’y voir plus clair.»

À lire également :

Intelligence artificielle : L’urgence de se doter d’une gouvernance de l’IA

Crédit Image à la Une : Pexels et Union européenne