[ANALYSE] Que reprocher à un algorithme biaisé?

[ANALYSE] Que reprocher à un algorithme biaisé?

De 200 à 300 biais cognitifs humains sont répertoriés par les études en neuroscience. Va-t-on décupler ce répertoire avec l’intelligence augmentée ? Ou bien allons-nous plutôt y remédier ? Mais, avant tout : pourquoi l’intelligence artificielle est-elle reliée à des biais ? 

Un biais est un écart, une distorsion, une erreur de départ. Il peut être une source de discrimination dans les cas de profilage sélectif, par exemple. Il faut se demander par quels mécanismes les biais, à l’intérieur des algorithmes, surviennent. Est-ce possible de les éviter ou, du moins, de les corriger ? Faut-il examiner la “loyauté” des algorithmes sur l’ensemble du cycle de vie des données ?

« Le classement, le tri et la sélection des informations d’un algorithme doivent être équitables ».  Patrice Bertail, David Bounie, Stephan Clémençon et Patrick Waelbroeck.

Morgan Gregory, dans son article What Does Fairness in AI Mean? paru dans Forbes, distingue trois manières par lesquelles les algorithmes sont biaisés. Cette distinction permet de mieux comprendre certains mécanismes :

  1. l’ensemble des données qui sert à l’apprentissage des machines n’est pas suffisamment représentatif;
  2. les données de formation contiennent des préjugés ou des préférences injustifiées, conscientes ou non;
  3. le choix des fonctions, dites objectives, a mal été fait dès le départ.
LES BIAIS STATISTIQUES – NON REPRÉSENTATIFS
Les données pauvres 

La meilleure façon d’imaginer ce type de biais est par cette expression anglophone qui dit : « Garbage in, garbage out ». Autrement dit, si les données collectées sont pauvres et n’apportent aucune signification, alors, les algorithmes sont complément faux. Le danger c’est qu’un algorithme peut paraître offrir des résultats probants, bien que sa source ne soit pas fiable du tout. Les nouvelles de l’actualité qui sont dites fausses (fake news) peuvent être analysées sous cet angle. 

Les variables oubliées

Certaines données sont plus difficiles à récolter que d’autres. Les données numériques concernant des éléments émotionnels comme le caractère d’un individu sont encore floues. Sans exclure qu’elles soient un jour plus claires, ces données qualitatives et quantitatives deviennent très importantes dans les logiciels de recrutement en ressources humaines. Morgan Gregory note que certaines variables cruciales comme le Leadership, pourraient être occultées.

Les biais de sélection

Dans l’analyse statistique d’une population, un algorithme utilise les données qu’on lui donne. En l’absence de guide, il utilise tout simplement les données disponibles. Pour plusieurs situations, nous ne possédons pas de données statistiques du tout. Bien que le recensement ne soit pas nouveau, la complexité des données que nous possédons sur les générations actuelles est immensément supérieure à celle des générations passées. Que sait vraiment Google au sujet de nos ancêtres ?

LES BIAIS COGNITIFS – PRÉJUGÉS ET LOURDEUR DU PASSÉ

Trois chercheurs de l’UQAM ont récemment réfléchi à la question des biais cognitifs et en ont dressé un répertoire interactif. Il est impératif d’analyser l’origine des biais cognitifs afin de combattre tout type de racisme systémique. Une des autrices, Cloé Gratton, précise que les débats actuels sur la crédibilité de la science sont liés aux enjeux des biais cognitifs. 

En ce qui concerne la programmation des algorithmes, les données récoltées peuvent contenir des préjugés, qu’ils soient conscients ou non. L’intelligence artificielle peut conduire à une forme de discrimination envers une certaine population. 

Les biais cognitifs de répétition

Un biais de répétition est facilement compréhensible si on considère, par exemple, la valeur d’une information selon sa fréquence. On peut penser au concept de « bandwagon » ou « du mouton de Parnurge ». Le jugement d’un individu se fait en fonction du plus grand nombre d’avis sur un enjeu. Ce comportement grégaire peut conduire un programmeur à suivre des modélisations qui sont populaires sans s’assurer de leur exactitude.

« Des affirmations ou des énoncés, même faux, finissaient par emporter l’adhésion de plusieurs personnes à force d’être répétés ». Cloé Gratton

Les biais cognitifs de confirmation

Ce sont les biais les plus répandus. Le biais de confirmation consiste à privilégier les informations qui confortent nos propres opinions, croyances ou encore nos valeurs. Ce biais conduit également à discréditer les opinions qui les contredisent et parfois à les ignorer. « Sur les réseaux sociaux », indique Cloé Gratton, « des individus ont tendance à préférer les échanges avec des personnes qui s’intéressent aux mêmes sujets qu’eux et qui partagent des opinions proches des leurs ».

Ces biais cognitifs peuvent conduire le programmeur à favoriser sa vision du monde même si des données disponibles peuvent remettre en question cette vision.

Les biais cognitifs stéréotypes

Ce sont les préjugés émis relatifs à un groupe d’une population. Ces jugements sont souvent issus d’un contexte du passé qui favorisait les discriminations. C’est une distorsion qui touche les races, les genres, les cultures et les religions et survient lorsqu’un individu agit en référence au groupe social auquel il s’identifie le plus.

Dans le milieu du travail, la performance individuelle peut décroître lorsqu’un individu pense être jugé sur la base de stéréotypes négatifs. Les algorithmes peuvent contenir des classifications basées sur des préjugés. Que ce soit conscient ou non.

LES BIAIS ÉCONOMIQUES – LES INTÉRÊTS DÉTOURNÉS

Par biais économique, il faut comprendre toute application qui nous inciterait, malgré nous à acheter des produits. Google, par exemple, a reçu en 2017, une amende de 3,5 milliards de dollars pour avoir favorisé ses propres produits dans les résultats de recherche de Google Shopping au détriment de ses concurrents.

CONCLUSION

Une chose est d’identifier les biais, une autre de les éviter. Malheureusement, le travail sur les biais en est un de longue haleine. Avant de regarder ce qui se passe à l’intérieur des algorithmes, il faudrait se questionner sur les intentions humaines derrière les projets en IA. Autrement dit, avant de nettoyer un algorithme, il est important d’être bien conscient de ce qu’on y intègre.

L’étude des biais doit donc se faire en amont des projets et il est impératif d’éviter toute systématisation de nos travers.

BIBLIOGRAPHIE

Bertail, Patrice; Bounie, David; Clémençon, Stephan; Waelbroeck, Patrick; Algorithmes : biais, discrimination et équité; Télécom ParisTech, février 2019.

Bolukbasi, Tolga; Chang, Kai-Wei; Zou, James; Saligrama, Venkatesh; Kalai, Adam; Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings; nips.cc.

Gauvreau, Claude; Reconnaître les biais cognitifs pour mieux les contourner, UQAM, janvier 2021.

Gregory, Morgan; What Does Fairness in AI Mean?, Forbes, janvier 2020.

Heilweil, Rebecca; Algorithms and bias, Vox, février 2020.

Obermeyer, Ziad; Powers, Brian; Vogeli Christine; Mullainathan Sendhil; Dissecting racial bias in an algorithm used to manage the health of populations, Science (sciencemag.org), octobre 2019.

Varshney, Kush R.; Reducing discrimination in AI with new methodology, IBM, décembre 2017.