Défis 2022 de l’IA : vers une intelligence artificielle inclusive centrée sur l’humain

Défis 2022 de l’IA : vers une intelligence artificielle inclusive centrée sur l’humain

Contrôlée par une poignée d’hommes, discriminatoire par le caractère biaisé de ses données et de plus en plus présente, l’IA devra nécessairement se tourner vers l’humain pour être inclusive et équitable. Un défi important pour 2022  !

L’IA PEUT-ELLE ÊTRE EST-ELLE SEXISTE OU RACISTE ?

Le chatbot Tay de Microsoft, en 2016, fut un projet d’expérimentation en apprentissage automatique et en traitement du langage naturel (NLP). Il visait à explorer l’engagement social des humains lors de leurs conversations digitales.

À travers les discussions, l’agent conversationnel devait donc apprendre à converser comme un humain. Or, l’expérience a démontré le développement d’un apprentissage très inapproprié dans le langage du logiciel TAY. En moins d’une journée, il avait développé, sur Twitter, des propos sexistes, racistes et politisés. Après cet échec, il a immédiatement été retiré d’Internet.

Cet exemple montre clairement comment des biais humains peuvent réellement induire les machines en erreur et à quel point les données sont elles-mêmes naturellement biaisées. Un des défis 2022 de l’IA repose sur le contrôle et l’évaluation des données tout au long de son cycle de vie.

Biasly AI: une application pour combattre les biais

Ce logiciel en développement a été conçu à l’Institut québécois d’intelligence artificielle, Mila. Biasly AI utilise des algorithmes de traitement du langage naturel (NLP) pour analyser les textes en ligne. Selon une taxonomie développée par des chercheurs de Mila, l’application identifie les préjugés de genre (ou sexistes) à l’intérieur même des conversations. Elle détecte donc les biais conscients et inconscients des utilisateurs et permet même de retirer les biais de certaines phrases inappropriées.

Dans le développement du prototype du logiciel Biasly AI, les chercheurs vont inclure d’autres éléments, notamment une taxonomie des préjugés raciaux afin de perfectionner l’identification des biais. L’application pourra être utile dans les systèmes de recrutement, à l’intérieur des forums de discussion ou tout autre plateforme sociale.

L’injustice algorithmique : des licenciements automatisés

Dans le monde du travail et notamment en ce qui concerne le recrutement, il faut bien se parer contre ce qu’on appelle aujourd’hui l’injustice algorithmique.

Notons l’exemple de la compagnie Xsolla qui est spécialisée dans le service de paiement. En Russie, en août 2021, selon la recommandation de son logiciel, Xsolla a licencié 150 employés. Une décision de taille prise par une IA !

Les employés n’avaient, en aucun cas, été prévenus de ce mode d’évaluation. Certains ont été qualifiés par l’IA d’improductifs et de désengagés. L’évaluation du comportement des employés se fait de manière automatisée en fonction de leurs activités dans Jira, Confluence, Gmail, à travers les chats, les documents ou les tableaux de bord.

Le défi 2022 de l’IA sera ici d’être plus transparente dans ses méthodes d’évaluation afin de rendre compte de son impartialité. D’autre part, afin d’éviter l’injustice algorithmique, il s’agira de ne pas surestimer les données quantitatives par rapport aux données qualitatives et d’analyser l’interaction de ces données de manière plus complète.

QUI CONTRÔLE L’IA ?

Le fait que l’IA soit raciste ou discriminatoire interpelle et nous pousse à réagir. Or quelles sont nos alternatives et comment prendre le contrôle de la situation ?

Gabriela Ramos, sous-directrice générale pour les sciences sociales et humaines de l’UNESCO – crédit photo : UNESCO

Bien que nous fassions appel à des réglementations et à plus d’encadrement en matière d’IA, le problème du monopole des GAFAM en limite le contrôle. Ainsi, qui gouvernera l’IA : les hommes d’État ou bien les grandes entreprises ? Et, en définitive, quelle est notre part de contrôle en tant qu’individu ?

Selon Mme Gabriela Ramos, sous-directrice générale pour les sciences sociales et humaines de l’UNESCO, « 250 entreprises représentent à elles seules 72% de la R&D dans le domaine de l’IA, 71% des publications, 65% des brevets et 42% des marques déposées ».

D’après un article du média français La finance pour tous, « Google concentre à lui seul plus de 90% des requêtes sur internet dans le monde. YouTube est vu bien plus que n’importe quelle chaîne de télévision et Facebook, quant à lui, totalise, en octobre 2020, plus de 2,7 milliards d’utilisateurs actifs mensuels ».

Le défi 2022 de l’IA sera d’être mieux répartie à travers les citoyens, en termes d’accessibilité, il est vrai, mais aussi en termes de gouvernance. L’opportunité économique de l’IA semble favoriser les géants et il s’agira d’éviter que ne se creusent davantage d’inégalités.

ENGAGEMENT POUR UNE IA INCLUSIVE

Du côté des concepteurs comme des utilisateurs, des investisseurs comme des gouvernants, l’IA aura pour tâche de se rendre plus inclusive et impartiale. Mais par quels moyens y parvenir ?

D’une part, la société et l’ensemble des individus devront contribuer à l’écosystème de l’IA afin que chacun soit mieux représenté. D’autre part, la gouvernance de l’IA devra être centrée sur l’humain.

L’acceptabilité sociale de l’IA

Benjamin Prud’homme, directeur exécutif du programme IA pour l’humanité à l’institut de recherche Mila – crédit photo : MILA

D’après Benjamin Prud’homme, directeur exécutif du programme IA pour l’humanité à l’institut de recherche MILA, quatre objectifs devront être visés en vue de développer l’acceptabilité sociale de l’IA :

  1. Favoriser la littératie de l’IA par l’éducation.
  2. Développer un narratif soulignant les bienfaits de l’IA.
  3. Créer des politiques publiques pour soutenir les projets en IA.
  4. Assurer une IA inclusive.

Selon lui, l’adoption de l’IA se fera tout d’abord par un passage de l’éthique au droit, puis des principes éthiques à l’application technique.

La Déclaration de Montréal a identifié des principes permettant de guider le développement de l’IA vers plus de responsabilité, d’inclusion et d’explicabilité. Elle favorise également le déploiement d’un langage commun dans l’exercice éthique que nécessite l’IA.

Par ailleurs, il s’agira de développer des organismes en vue de protéger les citoyens, comme la CNIL. Des lois doivent être émises afin de donner plus de contrôle aux utilisateurs de logiciel, comme l’article 22 du RGPD qui stipule que tout citoyen peut contester une décision qui serait prise par un algorithme. On peut donc exiger qu’un humain étudie la situation.

L’innovation centrée sur l’humain

Alors que la technologie tend à imiter l’humain, nous voyons qu’elle prend ses défauts et accentue même ses biais. Que voudra dire, alors, de se centrer sur l’humain comme le réclament plusieurs organismes ?

Que suppose un objectif aussi extraordinaire que d’humaniser les technologies ? Il ne s’agira pas tant d’imiter la nature humaine, mais de faire en sorte que notre humanité soit respectée.

L’UNESCO recommande, entre autres, que les prises de décision qui visent la vie ou la mort des individus soient faites par l’homme. Cependant, l’organisation ne traite pas des armes automatiques de manière spécifique. Par ailleurs, l’UNESCO préconise l’interdiction de la surveillance de masse en vue d’une évaluation sociale comme le propose la Chine avec son crédit social.

Les défis 2022 de l’IA en termes d’inclusion sont de taille. Tant du côté des objectifs d’affaires que de l’instrumentalisation de nos comportements, des études approfondies doivent être faites concernant la présence de biais de jugement. Afin d’assurer une prise de décision automatisée non discriminatoire, il faudrait, en conséquence, baliser le contrôle des algorithmes. 

Crédit photo : Unsplash

BIBLIOGRAPHIE

Lee, Peter. (2016). Learning from Tay’s introduction. Microsoft.

Lesmanne, Emeline et Cervoni, Laurent. (2021). L’IA est sexiste, raciste misogyne, homophobe, etc. Dossier- Intelligence artificielle: stop aux idées reçues. ActuIA. N6, p. 15.

Lion, Valérie. (2020). Un label pour une intelligence artificielle inclusive. L’Express.

Prud’homme, Benjamin. (2021). Développer l’acceptabilité sociale de l’IA. ActuIA. N6, p. 39.

Ramos, Gabriela. (2021). UNESCO: Pour une IA centrée sur l’humain. ActuIA. N6, p. 50.

Tazrout, Zacharie. (2021). Retour sur le premier anniversaire de la Charte Internationale pour une intelligence artificielle inclusive. ActuIA.

Vincent, James. (2016). Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day. The Guardian.

Wakefield, Jane. (2016). Microsoft chatbot is taught to swear on Twitter. BBC.

Cet article conclut la série consacrée aux “Défis 2022 de l’IA : vers une IA responsable, éthique et inclusive”.