[ANALYSE] Les valeurs technomorales et l’apprentissage moral des machines

[ANALYSE] Les valeurs technomorales et l’apprentissage moral des machines

Des philosophes étudient comment le caractère humain se voit transformé par les progrès de l’intelligence artificielle, de la robotique, des nouveaux médias sociaux, de la surveillance et des technologies biomédicales. Suivons ces recherches.

Shannon Vallor – une philosophe en IA bien engagée !
Shannon Vallor

Shannon Vallor, titulaire de la Chaire Baillie Gifford et directrice du Centre for Technomoral Futures. Crédit photo LinkedIn.

Shannon Vallor est titulaire de la Chaire Baillie Gifford en éthique des données et de l’intelligence artificielle à l’Edinburgh Futures Institute de l’Université d’Édimbourg, où elle dirige le Centre for Technomoral Futures.

Professeure de philosophie engagée, elle travaille également avec les gouvernements et l’industrie pour transmettre les normes éthiques à l’intérieur de la recherche et du développement technologiques. Elle préside le Data Delivery Group d’Écosse et siège à d’autres conseils consultatifs, notamment la Foundation for Responsible Robotics, ORBIT-RRI, le projet Humanising Machine Intelligence de l’Université Nationale d’Australie et le groupe AI & Data Ethics de l’Université d’Édimbourg.

« Nous vivons encore dans un monde avec des armes nucléaires, mais plus dans un monde où ces instruments prolifèrent en toute impunité. »

Shannon Vallor, titulaire de la Chaire Baillie Gifford et directrice du Centre for Technomoral Futures

De plus, elle est l’auteure du livre Technology and the Virtues: A Philosophical Guide to a Future Worth Wanting, qui nous a servi de référence pour l’article.

EXCELLENCE DE CARACTÈRE ET ÉTHIQUE DE LA VERTU
Technology and the Virtues

Technology and the Virtues: A Philosophical Guide to a Future Worth Wanting, par Shannon Vallor. Crédit photo Amazon.

Le projet de recherche actuel de Shannon Vallor porte sur l’impact des technologies émergentes (en particulier celles impliquant l’automatisation et l’intelligence artificielle) sur les habitudes morales et intellectuelles, sur les compétences et sur les vertus des êtres humains, bref sur notre caractère !

Son approche préconise un courant de pensée qui souhaite redorer les avantages de l’éthique de la vertu dans le contexte actuel des technologies.

Déontologie, utilitarisme et éthique de la vertu

Alors que deux approches dominent actuellement les recherches en éthique de l’IA : le déontologisme et l’utilitarisme (ou conséquentialisme), l’une et l’autre sont confrontés à des obstacles.

D’un côté les déontologistes se heurtent à une infinité de bonnes pratiques à programmer et ne parviennent pas à résoudre des dilemmes moraux. De l’autre, les utilitaristes, qui s’appuient sur une évaluation des conséquences de l’action, ne réussissent pas à mesurer, en temps réel, le niveau d’utilité d’une situation donnée.

Pour contrer ces enjeux, Shannon Vallor propose une approche qui s’appuie sur les théories développées en éthique de la vertu. Ces théories offrent une perspective empiriste qui permet d’entrevoir la possibilité d’un entraînement moral des machines dotées d’IA, grâce, entre autres à l’apprentissage profond et au traitement du langage naturel (NLP).

Faire la morale aux robots d’après Martin Gibert
Martin Gibert

Martin Gibert, chercheur en éthique de l’IA, IVADO, CRÉ

C’est également l’approche que préconise Martin Gibert dans son ouvrage Faire la morale aux robots. Le philosophe soulève le point selon lequel, il faudra récolter les données les plus vertueuses.

Selon lui, « les robots déontologistes et utilitaristes ont en commun de s’appuyer sur la spécification directe, où on implante par le haut (ex cathedra) des règles ou des objectifs. » Or, dans le cas des robots autonomes, « on ne peut jamais être certain d’avoir implanté les bonnes règles ni les bons objectifs. »

« Le robot vertueux est fait pour apprendre dans son ADN. »

Martin Gibert, Chercheur en éthique de l’IA et des données massives, CRÉ

Faire la morale aux robots

Faire la morale aux robots de Martin Gibert. Crédit photo Amazon.

À la manière des humains, les robots pourraient devenir vertueux en répétant des actes jugés moralement bons. C’est l’apprentissage par l’expérience.

Puis, habitués à bien agir, ils auraient l’occasion, comme nous le pouvons, de développer une compréhension de la vertu par excellence, du principe de tempérance et de juste-milieu. Un contrôle de soi, sur ses forces et ses faiblesses.

Faire la morale aux robots

Illustration de Pierre-Nicolas Riou. Faire la morale aux robots.

Les 12 vertus technomorales développées par Shannon Vallor
  1. Honnêteté
  2. Contrôle de soi
  3. Humilité
  4. Justice
  5. Courage
  6. Empathie
  7. Soin (Care)
  8. Civilité
  9. Flexibilité
  10. Jugement (perspective)
  11. Générosité (magnanimity)
  12. Sagesse technomorale
Une narration universelle du Bien Commun

De plus, les nouvelles pratiques technomorales, pour Shannon Vallor, nous permettent de créer une narration universelle du Bien Commun pour tous les individus. En ce sens, la notion de sécurité des données personnelles est dite universelle.

« Plus que de meilleures technologies, nous aurons besoin de meilleurs humains. »

Shannon Vallor, titulaire de la Chaire Baillie Gifford et directrice du Centre for Technomoral Futures

Selon Shannon Vallor, l’éthique de la vertu et le développement de valeurs technomorales, nous permettent de poser des questions d’avenir telles que « l‘innovation en robotique change-t-elle nos habitudes, nos compétences et nos traits de caractère en mieux, ou en moins bien ? »

Elle insiste sur le fait que notre épanouissement avec les technologies robotiques dépend de notre investissement collectif dans la culture mondiale de vertus technomorales. Ces vertus pourraient nous aider à améliorer les conceptions et les pratiques robotiques déjà émergentes.

Shannon Vallor souligne que nous devons avoir un réel espoir dans les technologies et le développement de valeurs morales afin d’assurer un avenir digne d’intérêt.

BIBLIOGRAPHIE

Vallor, Shannon. (2016). Technology and the virtues. A philosophical guide to a future worth wanting. Oxford University Press.

Gibert, Martin. (2020). Faire la morale aux robots. Atelier 10.