[ANALYSE] Le PL 95 d’Éric Caire, un exemple de responsabilité en IA

[ANALYSE] Le PL 95 d’Éric Caire, un exemple de responsabilité en IA

La responsabilité en IA est complexe pour la simple et bonne raison que sa denrée est libre et que quiconque peut en prendre le pouvoir. Dans ces conditions, si les avantages de l’IA sont mis de l’avant par un fournisseur, ses inconvénients ne le seront pas. Les tierces parties se font discrètes et au bout du compte, on se demande si ce n’est pas l’utilisateur qui est tenu responsable des torts.

« La transformation numérique est bel et bien engagée ».

Éric Caire, ministre délégué à la Transformation numérique gouvernementale et ministre responsable de l’Accès à l’information et de la Protection des renseignements personnels.

I – LES PARADOXES DE LA RESPONSABILITÉ EN IA
a) Une denrée infinie entre peu de mains

Alors que la plupart des ressources sont tangibles, géographiques et limitées, l’intelligence artificielle est tout le contraire. Les procédés habituels de mesure et de répartition sont ébranlés et nous n’avons plus d’autres choix que de changer nos paradigmes afin d’encadrer les technologies, au profit de nos sociétés.

Les données personnelles sont souvent prises pour des données anodines et sans importance. Alors que nous avons été habitués à ne pas révéler d’emblée notre numéro d’assurance sociale, nous divulguons toutes sortes d’autres informations personnelles ayant presque la même teneur.

Bien que nous appelions à l’aide pour une meilleure gouvernance de l’IA et que nous cherchions les coupables de la perte de nos espaces privés, il ne faut pas trop se leurrer sur notre part de responsabilité.

« Nous, utilisateurs compulsifs, sommes les premiers responsables de l’émission de données ».

Par contre, ceux qui contrôlent le rôle que jouent ces données ne devraient pas profiter de l’aveuglement généralisé. On pense évidemment aux GAFAM qui possèdent le monopole de cette denrée. Ces entreprises (GAFAM) devraient prendre part à la responsabilisation face à l’intelligence artificielle. Ce sujet sera abordé au prochain sommet du G7 qui aura lieu en juin 2021, au Royaume-Uni.

b) L’avantage du flou sur la valeur

Le devoir d’explicabilité des systèmes d’IA est primordial. On utilise même le terme de scrutabilité en recherche avancée. La transparence dans les processus est de mise, mais elle doit être compréhensible. Ménager le flou, c’est au désavantage de l’utilisateur, mais certainement pas du fournisseur… Mais du fournisseur de quoi, au juste?

La logique qui consiste à analyser l’utilisateur comme un acheteur n’est pas la même qui vise à analyser un citoyen ou un individu en tant que personne morale. Mais, le fournisseur ici n’est plus simplement un pourvoyeur de services ou de biens, mais également un agent politique et moral. En effet, ses produits transforment nos vies.

Mais qui est ce fournisseur ? Mettre le doigt sur la personne morale derrière un système n’est pas évident non plus.

« Libres d’accès, les données sont ingérées, déformées, organisées, et le rôle qu’elles jouent reste flou, la plupart du temps ».

Pour la simple raison qu’elles sont accumulées comme denrées et non comme des identités morales.

Ainsi, plus elles sont floues, plus les données sont mobiles et il faudra se méfier de leur degré d’anonymisation. C’est le prochain défi des citoyens. À condition qu’ils s’en préoccupent, bien entendu !

L’opacité de l’IA est également perceptible sur les milieux de travail. Voici, quelques constats de ce flou, tirés par le Conseil interprofessionnel du Québec, en avril 2021 :

  • L’utilisation de l’IA semble floue et lointaine pour les professionnels ;
  • Un professionnel sur trois ne sait pas si son entreprise ou organisation utilise des outils basés sur de l’IA ;
  • Seulement 12 % de l’ensemble des professionnels croit que l’IA ne changera pas leur pratique professionnelle ;
  • Les professionnels sont prêts à utiliser l’IA mais ne souhaitent pas déléguer des tâches à un robot.
c) Les droits humains une affaire publique ou privée ?

D’après une Étude du Conseil de l’Europe, défendre les droits humains en ce qui concerne l’IA ne coule pas de source. En effet, les valeurs et les intérêts collectifs définis par ces droits ont été interprétés pour l’individu et non pour des intérêts collectifs comme la préservation de ces droits eux-mêmes.

Ce sont les bases mêmes, sociales et techniques, pourtant indispensables à l’exercice des droits de l’homme et des libertés fondamentales que nous voyons menacées aujourd’hui. D’où la complexité des notions, pourtant bien acquises, de responsabilité.

Aussi, certaines définitions des droits humains restent vagues et réfractaires à la logique comme « la culture et les contextes moraux et sociopolitiques dans lesquels les technologies numériques avancées opèrent ». Voilà une explication flagrante des préoccupations actuelles sur les biais systémiques !

Les approches actuelles autour des droits humains ne sont pas adaptées aux risques collectifs que pose l’IA, nous rappelle l’Étude. Elles ignorent la nécessité d’une remise en question des structures sociétales actuelles. Nous devons comprendre : « les menaces qui pèsent sur le tissu démocratique et moral dans lequel les droits individuels sont ancrés et sans lequel ils n’auraient pas de sens ».

« Par ailleurs, l’obligation de protéger les droits humains repose sur les États alors que le monopole du pouvoir est entre les GAFAM ».

Une discussion politique doit ici se faire.

II – LES 2 FONCTIONS DE LA RESPONSABILITÉ 

Le Philosophe Gary Watson analyse la notion de responsabilité et lui accorde deux fonctions distinctes. Voyons si cette réflexion nous permet d’y voir plus clair.

a) La responsabilité de se réaliser soi-même

Comme agent moral, comme citoyen, ou comme personne morale, nous avons la responsabilité de construire notre propre vie. Puisque nous sommes autonomes et libres, la réalisation de soi est un devoir qui nous donne accès à la société de droit. Or, tant que nous ne portons pas de préjudice à autrui, nous ne sommes pas tenus par la loi d’avoir cette autoresponsabilité. Tant que nous ne nuisons pas à autrui, nous pouvons renoncer à un bien vivre.

L’IA est considérée comme un agent moral (et il le faut), mais cela ne nous permet pas de conclure que l’IA doit se réaliser elle-même. Première embûche à l’analogie !

b) La responsabilisation de la moralité

Lorsque nous sentons que la morale n’est pas respectée, nous nous offusquons. Nous jugeons que tel ou tel acte est répréhensible, intolérable ou encore comme devant être censuré. Nous ne nous référons à aucune loi en particulier, mais au sentiment d’injustice.

Cette fonction, propre à la responsabilité, selon Watson, est fondamentale. Elle devrait être un fil directeur au-devant de situations ambigües, ou floues, moralement.

« Cette responsabilité envers des valeurs permet de rétablir l’ordre en cas de conflits ».

III – LES 2 TYPES DE RESPONSABILITÉS SELON LA COMMUNAUTÉ EUROPÉENNE

Mais, comment appliquer cette distinction à l’IA ? L’intelligence artificielle devra-t-elle devenir responsable d’elle-même, puisqu’elle se définit comme un agent moral ? Mais aussi, comment deviendra-t-elle responsable moralement du respect de nos droits fondamentaux ?

a) La responsabilité rétrospective (Down-Up)

C’est une forme de responsabilité, dite historique, orientée vers les conséquences des actions. Les conséquentialistes fondent leur approche éthique sur l’évaluation des conséquences reliées aux actions. Mais le flou invoqué quant aux conséquences contribue à la perte de responsabilité des fournisseurs.

De plus, nous observons un vide de responsabilité dans les cas d’autonomie des systèmes, selon Andreas Matthias (Lingnan University). L’auteur récuse le prétendu problème de contrôle invoqué par les fournisseurs. Ces derniers affirment alors que : « l’agent ne peut être considéré comme responsable que s’il connaît les faits spécifiques qui entourent son action et s’il est capable de prendre librement la décision d’agir et de sélectionner une série d’actions parmi celles envisageables compte tenu des faits ».

Cette approche en éthique de l’IA est appelée Down-up, car les jugements se font en aval, en remontant des faits aux actions. La moralité est jugée selon les conséquences.

b) La responsabilité prospective (Top-Down)

Cette autre forme de responsabilité se tourne, ici, vers le futur. Elle s’inscrit dans un processus nommé Top-Down. La responsabilisation se fait au moment de la détermination des objectifs. Des rôles et tâches sont identifiés clairement avant la conception des systèmes. Elle vise à prévenir les torts, comme les risques de discriminations systémiques, par exemple.

Mais, il ne semble pas toujours évident de s’entendre sur les bases mêmes de l’interprétation de nos droits ; ce qui pose des problèmes de taille quand vient le temps d’ancrer des valeurs dans les systèmes.

III – LE PROJET DE LOI 95 D’ÉRIC CAIRE

Assemblée nationale du Québec

Après ce détour théorique, pour tâcher de comprendre ce que peut être la responsabilité en IA, voyons la position que prend l’État québécois.

a) Gouvernance et prise de responsabilité

Le projet de loi vise à encadrer l’utilisation et la mobilité des données numériques gouvernementales. Le but étant de répondre aux objectifs d’un État numérique.

Dans cette optique, l’administration publique doit veiller à renforcer les mécanismes de cybersécurité. Les acteurs principaux et leurs tâches doivent être bien définis pour permettre une gouvernance globale et concertée.

b) Initiatives concrètes

Le PL 95 propose un certain nombre d’initiatives concrètes dans la détermination de rôles politiques. Il entend désigner des organismes publics qui agiraient comme une source officielle de données numériques gouvernementales.

Le projet de loi vise à créer des fonctions publiques chapeautant ces responsabilités ; en voici 3 déjà exposées :

  1. Chef gouvernemental de la sécurité de l’information
    • Attribuée au dirigeant principal de l’information
  2. Chef délégué de la sécurité de l’information
    • Attribuée aux dirigeants de l’information des organismes publics
  3. Chef gouvernemental de la transformation numérique
    • Attribuée au dirigeant principal de l’information
CONCLUSION

Se responsabiliser en termes d’IA n’est pas une tâche simple, nous l’avons vu. Plusieurs paradoxes nous empêchent de discerner les impacts et la source réelle de nos interventions en IA. Le PL 95 est un pas en avant vers plus de responsabilisation étatique. Applaudissons cet effort politique et surveillons les initiatives concrètes qui en découleront.

BIBLIOGRAPHIE

Cane, Peter; Responsibility in Law and Morality; 2002.

Chalmers, David, Constructing the world, 2012

Conseil interprofessionnel du Québec; Un professionnel sur deux a des craintes concernant son indépendance professionnelle vis-à-vis des fournisseurs de technologies et de services numériques révèle un rapport commandé par le CIQ; Cision; avril 2021.

Étude du Conseil de l’Europe; Responsabilité et IA; mai 2019.

Matthias, Andreas, The extended mind and the computational basis of responsibility ascription; 2016.

Watson, Gary; Agency and Answerability: Selected Essays; 2004.