[ANALYSE] Conséquentialistes contre universalistes – une guerre de critères en éthique de l’IA?

L’éthique et la gouvernance de l’IA sont de vastes champs de réflexion qui ouvrent sur des questions au fondement de nos institutions. Quelles sont les valeurs que nous voulons protéger ? En l’absence de lois, quel est notre cadre de référence ? Quels sont nos vrais repères ? Autant d’éléments qui trouveront des réponses différentes, et des positions variées.

UNE IA QUI DÉCIDE, UNE IA QUI NOUS ALTÈRE

Deux raisons principales déclenchent les débats de fond sur le sujet. D’une part, l’intelligence artificielle a démontré qu’elle pouvait avoir des impacts sur la société. Elle a des “préférences”. L’IA change nos comportements. Elle interagit continuellement avec nous en attirant, triant, suggérant, conseillant, décidant même parfois.

L’éthique doit veiller à ce que ces impacts ne soient pas néfastes pour les humains. Une mauvaise sélection déclenche des conflits. Un changement d’attitude crée de nouvelles habitudes et implique de nouvelles embuches. Enfin, le regard du numérique, comme un miroir, devient l’étalon de notre estime de soi. Plusieurs dérives qui provoquent des impacts majeurs au sein de nos sociétés.

« Pour la première fois dans l’histoire, nous avons la possibilité de créer des agents non humains, autonomes et intelligents ».

La Déclaration de Montréal en IA responsable

D’autre part, l’IA donne la possibilité aux machines de prendre des décisions. On se questionne sur la valeur morale de ces décisions. Pour quelles raisons ? Car l’apprentissage machine devrait être orienté en vue de bien servir les humains. Par la diversité des secteurs d’activités, les technologies devraient également s’accorder sur des principes de base. Une déontologie est difficilement envisageable dû au caractère évolutif de l’apprentissage machine. Comment le contrôler ?

Dans les deux cas, le débat des valeurs est soulevé.

LES 3 FAMILLES EN ÉTHIQUE

On doit distinguer 3 grandes approches en éthique. L’éthique de la valeur, la déontologie et le conséquentialisme.

Conséquentialistes

Le conséquentialisme désigne l’ensemble des théories morales pour qui les conséquences d’une action donnée forment la base de tout jugement moral. Une action moralement juste est une action dont les conséquences sont jugées comme étant bonnes.

L’utilitarisme s’inscrit dans cette lignée. La maximisation des biens devient alors le seul critère normatif. Le bien moral est le maximum de plaisirs associé au minimum de peines.

Le problème de ces théories est que l’individu n’est pas en mesure de s’auto-limiter dans l’accumulation de ses biens matériels au détriment parfois des biens sociaux. L’équilibre ne se fait pas toujours en faveur de l’ensemble de la population.

Déontologistes

Une autre approche est la déontologie. Les éthiques déontologiques sont celles qui mettent l’accent sur le type d’action plutôt que sur ses conséquences. Par opposition au conséquentialiste, un déontologiste affirme que nous devrions suivre nos règles morales quelles qu’en soient les conséquences. Il affirme que certaines actions sont immorales par nature. 

Les éthiciens de la vertu

L’autre approche est celle de l’éthique de la vertu. Une action est alors jugée selon les motivations de l’agent. Par le passé, cette approche était associée au domaine du religieux. L’éthique de la vertu a pour avantage de s’appuyer sur une conception universelle des valeurs morales. Elle se réfère à une conscience morale. Une notion intrinsèque en chaque individu de ce qui est bien ou mal.

Elle a été mise de côté car elle suppose détenir une vérité morale. L’affirmation du libre-arbitre semble, en effet, s’opposer à cette idée d’un bien absolu.

C’est le camp des universalistes. Ceux qui affirment qu’il existe des valeurs fondamentales communes. L’Organisation des Nations Unies, par exemple, a été bâtie grâce à cette idéologie.

QUELLE ÉTHIQUE POUR L’IA?

Si on rassemble ces trois approches et les deux principales causes des débats, on a un portrait assez précis de la situation en éthique de l’IA.

Les impacts sociétaux de l’IA

Dans le premier cas, les enjeux invoqués concernent les impacts sociétaux de l’intelligence artificielle. On jugera discriminante une application de profilage. Alors, on étudiera les biais internes à la source d’une sélection défavorisant un certain type de population.

Quelle serait la meilleure approche pour ce genre de situation ? Le conséquentialiste condamnera l’application de profilage pour ses torts causés à la société. Les torts seraient examinés dans les moindres détails. Le déontologiste se référerait aux codes de déontologie relatifs à la criminologie ou une autre discipline pour émettre un jugement. Dans le cas de vide juridique, de nouveaux codes seraient à édicter. Que ferait l’éthicien de la valeur ?  Il analyserait les intentions morales de l’application. Il ferait une analyse des objectifs inscrits dans les processus automatisés.

Les contraintes de l’IA

Chacune des approches semble avoir des limites. Le conséquentialise n’a encore que très peu d’informations sur les impacts sociétaux des applications intelligentes. Dans les cas des nouvelles applications, les critères d’évaluation seraient tout simplement absents. Il manque de repères.

Le déontologiste cherche à ramifier plusieurs codes pour répondre aux nouveaux enjeux en biologie, par exemple. Les codes de bioéthiques sont révisés. Cependant, avec le caractère évolutif des technologies intelligentes les codes seraient sans cesse à revoir. Le déontologiste serait pris de vitesse.

« Mais comment vérifier si les systèmes d’IA incarnent effectivement ces valeurs ? ».

Ibo van de Poel, Phd en philosophie, Valeurs, Technologie et Innovation, professeur à Delft University of Technology, Netherlands.

L’éthicien de la valeur analyse les objectifs moraux intrinsèques aux applications. Dans quels buts moraux ont-elles été créées ? Sans rentrer dans les débats sur la neutralité morale des objets technologiques, on peut questionner leurs objectifs. Quel est l’objectif moral d’un outil comme Alexa (ndlr : le moteur de recherche interactif d’Amazon) ? Aucun ? Alors, il faut mettre cette technologie en question car elle aura des impacts sur nos vies.

L’éthique par concept (Ethics by Design)

Le deuxième cas à la source des débats éthiques concernant les prises de décisions autonomes. Les questions éthiques portent sur la machine dans la mesure où elle possède, en elle-même, une faculté qui lui permet d’agir et de prendre des décisions. Par exemple, les drones avec des systèmes d’autopilotage posent des questions de fond en ce qui concerne les armes de guerre.

« Il importe d’investir dans l’élaboration de méthodes et de techniques permettant de planifier la valeur de l’IA ».

Alexandre Moïse, Ph. D., École Polytechnique de Montréal –  Professeur agrégé à l’Université de Sherbrooke et à l’École de gestion.

Le conséquentialiste aurait une approche plutôt critique quant à la mise en place d’un code moral à l’intérieur des algorithmes. L’aspect profondément relativiste de sa position émettrait des doutes sur des applications qui systématisent les actes moraux.

Le déontologiste est déjà à l’œuvre ! Il édicte les balises en vue de coder l’éthique, c’est ce que nous appelons Ethics by Design. Mais dans un espace encore inhabité, quels seraient nos critères d’évaluation de ces nouvelles balises ? Assisterons-nous à une quête du meilleur code de déontologie, toutes disciplines confondues ?

L’éthicien de la valeur pourrait dire qu’il est trop tard. Que l’IA s’emballe et ne se contrôle plus. Cependant, cet éthicien est à la table des débats pour questionner les objectifs intrinsèques aux algorithmes. Il analyse au-delà des conséquences, la portée morale d’un système. L’éthicien de la valeur a l’avantage d’avoir un pilier en cas de tempête. Il recentre inévitablement les débats autour des valeurs universelles.

CONCLUSION

Il faut dépasser l’opposition qui existe entre les différentes approches en éthique. Il faut tenter de combiner les avantages et concilier les objectifs. Se poser de nouvelles questions : Quels seraient les critères communs de ces trois disciplines ? Comment accorder les critères émis selon les conséquences, selon des codes établis ou selon des valeurs universelles ? Est-il possible de combiner ces trois approches ? Autant de questions qui devront être adressées afin de faire vraiment bénéficier l’humanité de ces impressionnantes avancées technologiques. De nombreux spécialistes se penchent déjà sur le sujet, mais il faudra de vrais débats et des choix de société pour y parvenir.

 

BIBLIOGRAPHIE

La Déclaration de Montréal pour un développement responsable de l’intelligence artificielle, 2018

Hamel-Dufour, Sophie, Se connecter à la société… et à l’éthique, La Presse+, décembre 2018

Ménissier, Thierry, Quelle éthique pour l’IA, Colloque de l’Académie Delphinale, archives-ouvertes.fr, octobre 2020

Moïse, Alexandre, Déterminer la valeur de l’IA, Le Devoir, mai 2019

Parent, Lise, La Déclaration de Montréal pour un développement responsable de l’intelligence artificielle, Éthique et algorithmes, mars 2018

Van de Poel, Ibo, Embedding Values in Artificial Intelligence (AI) Systems, researchgate.net, aout 2020.

Wong, Pak-Hang, Cultural Differences as Excuses? Human Rights and Cultural Values in Global Ethics and Governance of AI,researchgate.net, novembre 2020

2 Commentaires
Laisser une réponse

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *