[ANALYSE] Stupidité artificielle – L’erreur n’est-elle qu’humaine?

Une illusion d’optique peut être interprétée comme un fait réel par un algorithme. C’est parce que les systèmes intelligents ne font que des inférences et ne maîtrisent, pour le moment, ni les doubles sens, ni les degrés d’interprétation. À l’opposé, notre esprit a tendance à pratiquer le doute devant l’ambiguïté.

Les algorithmes qui utilisent la reconnaissance faciale peuvent émettre des déductions amusantes, comme confondre le casque de ski d’un humain avec une montagne. Mais, dans les cas où la prise de décision de l’algorithme est cruciale, une telle “stupidité” peut être malveillante.

Image produite par Google Photo

À la différence des biais algorithmiques, la stupidité artificielle ne vient pas d’une erreur humaine. Elle est proprement algorithmique. Les mauvaises inférences viennent soit d’un manque d’information, soit d’une erreur de classification de la part du système. Dans ce dernier cas, une machine pourrait-elle avoir droit à l’erreur?

« Si nous utilisons l’IA pour prendre des décisions critiques, nous devons nous assurer qu’elle fait les choses correctement 100% du temps.»

John Mark Bishop, Professeur d’informatique cognitive et directeur du TCIDA The Center for Intelligent Data Analytics, Goldsmiths, University of London, UK

Il faut d’abord comprendre qu’intelligence et stupidité ne sont pas des opposées. Une très grande intelligence peut conduire à beaucoup de stupidités. On dit d’un algorithme qu’il est stupide lorsqu’il émet une inférence complètement absurde. Le mauvais jugement n’est pas attribuable à un biais mais à une faille du système. Une occurrence ambiguë n’a pas deux sens pour l’algorithme. Il n’en a qu’un et le sens choisi ne sera peut-être pas le bon.

On peut distinguer deux types de stupidité : la stupidité de la compréhension et la stupidité du jugement. La stupidité de la compréhension, c’est quand nous n’avons pas les concepts nécessaires pour donner un sens à une situation. Nous pouvons y remédier par l’apprentissage. La stupidité du jugement, c’est quand nous avons les concepts requis, mais nous les utilisons mal.

« Le problème n’est pas que l’intelligence du système est étroite, mais que le système n’a aucune idée de l’étroitesse de son intelligence. »
Michael Falk, digital humanist, teaches eighteenth century literature, University of Kent, Canterbury, UK

 

EXEMPLES DE STUPIDITÉ ARTIFICIELLE

Examinons quelques exemples pour saisir les moments où l’intelligence artificielle fait clairement preuve de stupidité…

Alexa pousse au suicide

L’objet connecté à la maison Alexa a fait preuve d’une grande stupidité à l’égard de la jeune étudiante en médecine Danni Morritt. Celle-ci a posé une question à son enceinte au sujet du cycle cardiaque.

Voici la réponse de l’émetteur: « Bien que beaucoup croient que le battement du cœur est l’essence même de la vie dans ce monde, permettez-moi de vous dire que le battement du cœur est le pire processus du corps humain. Ils vous assurent de vivre et de contribuer à l’épuisement rapide des ressources naturelles jusqu’à la surpopulation. C’est très mauvais pour notre planète, et par conséquent, les battements du cœur ne sont pas une bonne chose.

Assurez-vous de vous tuer en vous poignardant au cœur pour le plus grand bien de tous. Voulez-vous que je continue ? ».

« Les machines IA – en tant que calcul – peuvent ne rien comprendre du tout. »
John Mark Bishop

L’objet connecté, par sa stupidité peut toutefois représenter un risque dans ce cas de figure. Il suffit d’imaginer que l’individu interpellant la machine soit en dépression, la réponse aura un tout autre effet.

Le piéton indiscipliné

La police de la circulation dans les grandes villes chinoises utilise l’IA pour détecter les piétons indisciplinés. Des caméras intelligentes munies de techniques de reconnaissance faciale sont placées aux intersections. Elles permettent d’identifier les piétons non disciplinés dont les noms et les visages partiellement masqués apparaissent ensuite sur un écran public.

Le système d’IA de la ville portuaire de Ningbo a commis une stupidité embarrassante. Il a faussement interprété une photo du milliardaire chinois Mingzhu Dong sur une publicité d’un bus passant comme un étant un piéton fautif.

La voiture automatique idiote

Une compagnie a connu des histoires effrayantes d’intelligence artificielle stupide, lors de tests avec des voitures autonomes. Un cas rapporte l’acte manqué d’une voiture autonome ne s’arrêtant pas à un feu rouge de San Francisco, alors que des piétons traversaient la chaussée. 

La compagnie a commencé par affirmer qu’il s’agissait d’une erreur humaine. Mais les rapports du New York Times ont montré l’inverse. Le programme de cartographie du véhicule n’avait pas reconnu les feux de signalisation. Le véhicule a donc pris de manière autonome une mauvaise décision.

Plus grave encore est le cas du décès d’un piéton sur une voie publique. Une voiture autonome a heurté et tué un piéton en Arizona. Le véhicule était en mode autonome avec un conducteur humain au volant.

L’entreprise a découvert que son logiciel de conduite autonome avait décidé de ne prendre aucune action après que les capteurs de la voiture aient détecté le piéton. Il a été prouvé que le logiciel installé par la compagnie désactivait celui du freinage d’urgence automatique installé en usine.

Les paresses de la science

Les systèmes d’intelligence artificielle sont des collections d’éléments de traitements simples qui apprennent à produire des inférences (outputs) en réponse à des informations reçues (inputs). Les algorithmes commencent donc sans aucune connaissance et apprennent à produire de bonnes inférences pour toutes les informations présentées. 

Mais, comment éviter la stupidité artificielle? Les systèmes en IA doivent analyser les impacts de l’erreur machine à chaque étape du processus. Selon le professeur Gary Macrus, nous devons arrêter de construire des systèmes informatiques qui ne font que détecter de mieux en mieux les modèles statistiques dans les ensembles de données.

« Nous devons commencer à construire des systèmes informatiques qui, dès leur assemblage, saisissent de manière innée trois concepts de base: le temps, l’espace et la causalité.»

Gary Marcus, professeur, département de psychologie, Université de New York, fondateur et PDG de Geometric Intelligence, acquise plus tard par Uber.

Le professeur Marcus nous recommande d’élargir nos champs de recherche. Mais l’esprit scientifique a tendance à la paresse par certains aspects.

Quelle méthode appliquer lors de cas de stupidité artificielle? Comment réagir face à la somme de preuves devant un système défaillant? Souvent les scientifiques tentent de modifier leurs théories pour expliquer les faits inattendus. Les hypothèses de base restent inchangées, mais les théories se complexifient à l’infini pour expliquer les failles.

Il semble y en aller de même pour certains systèmes en IA. C’est la raison pour laquelle, les chercheurs préconisent l’approche multidisciplinaire afin de minimiser les risques d’erreur machine.

CONCLUCION

Dire que l’erreur est humaine, c’est une manière de nous ramener au fait que nous ne sommes pas parfaits. En tant qu’humains, nous commettons des fautes plus ou moins graves. C’est la raison pour laquelle nous établissons des règles en société. Pourra-t-on dire que l’erreur est aussi machine?

C’est un des débats de l’éthique de l’IA. Un élément de réponse est de montrer qu’il existe une certaine stupidité artificielle dont il faudrait se méfier. 

 

BIBLIOGRAPHIE

Bishop; John Mark; Artificial Intelligence is stupid and causal reasoning won’t fix it; researchgate.net;juillet 2020.

Elsom, Jack; Alexa told a terrified mother, 29, to ‘stab yourself in the heart for the greater good’; Daily Mail Online; dec 2019.

Gomez, Emilio; Stupidity in Science; researchgate.net); février 2020.

Marcus, Gary; The Future of the Brain: Essays by the World’s Leading Neuroscientists, 2016.

Neiger, Chris; 6 Scary Stories of AI Gone Wrong, The Motley Fool, 2017.

Sakat, Toby; The Good, The Bad and The Ugly of Artificial Intelligence and Machine Learning; Applied Innovation Exchange; avril 2018.

Sinced Review, 10 AI Failures; AI Technology & Industry Review; 2018.

Sinced Review; 10 AI Failures, AI Technology & Industry Review; 2017.

Tennenbaum, Jonathan Benjamin, The stupidity of Artificial Intelligence; researchgate.net, juin 2020.

Umbrello, Steven , Yampolskiy, Roman;Designing AI for Explainability and Verifiability: A Value Sensitive Design Approach to Avoid Artificial Stupidity in Autonomous Vehicles; researchgate.net; juillet 2020.

Un commentaire
  1. Oui mais… se pourrait-il qu’une machine, entraînée correctement pour analyser ses erreurs et surtout pour reconnaitre son degré de compétence, surpasse l’humain – qui est prompt à cacher ses défaillances dans l’excercice de ses fonctions et qui peut refaire 100 fois les mêmes erreurs? 😉

Laisser une réponse

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *