À l’occasion de la célèbre Conférence de Montréal, un panel, sur les problèmes d’équité à l’intérieur des systèmes d’intelligence artificielle, a attiré tout particulièrement notre attention.
Principalement axée sur les grands enjeux de la mondialisation économique, la question de l’équité des genres, mise sur la table, a permis de pousser plus loin ce débat, pour le comprendre de manière globale, car tel qu’amené par Paola Ricaurte, co-fondatrice de Tierra Común et professeure associée à l’École Tecnológico de Monterrey et à l’Université d’Harvard, « Il ne suffit pas de parler de biais, on doit également savoir qui possède la technologie ».
« Il ne suffit pas de parler de biais, on doit également savoir qui possède la technologie. »
– Paola Ricaurte, co-fondatrice de Tierra Común, professeure associée à l’École Tecnológico de Monterrey et à l’Université d’Harvard
Alternativement, la discussion a porté sur (1) les avantages de l’IA pour résoudre les défis d’équité, (2) sur les risques de répéter des processus discriminatoires, puis (3) sur la saine gouvernance des systèmes et enfin (4) sur les modèles (designs) à suivre ou à inventer pour la conception de ces systèmes d’IA.
Les trois principales solutions
Les trois principales solutions qui ont émergé au cours de ce panel sont d’une part (1) la création d’échanges internationaux autour de cette question, d’autre part (2) l’importance d’assurer une véritable représentativité des genres autour de la table des décideurs, et enfin de (3) réunir des experts issus de plusieurs disciplines incluant les sciences humaines, pour résoudre cette problématique sociétale et économique.
Une saine gouvernance à travers les échanges internationaux
La Conférence de Montréal a pour but de mettre l’accent sur les relations entre les Amériques et les différents continents, pour favoriser l’échange d’information et faciliter les rencontres. Un bon moment pour rappeler les erreurs discriminatoires du passé et s’assurer de développer des modèles économiques durables. Puis, les modèles doivent être durables, non seulement en vue de préserver le climat, mais aussi en vue de répondre aux objectifs de développement durable sous ces 17 volets. En ce qui nous concerne, l’équité est représentée par l’Objectif 5 selon lequel « l’égalité des sexes n’est pas seulement un droit fondamental à la personne, elle est aussi un fondement nécessaire pour l’instauration d’un monde pacifique, prospère et durable. »
« Le grand risque est structurel et il consiste à reproduire, ou même à amplifier les inégalités. »
– Benjamin Prud’homme, directeur exécutif, IA pour l’humanité, Mila
D’après Benjamin Prud’homme, l’apparition de ChatGPT a exalté une incroyable concentration du pouvoir entre les mains d’environ seulement 5 personnes sur terre. Or, il se trouve que ces 5 personnes sont caucasiennes, viennent des continents du nord et sont des hommes. Paulette Senior, présidente-directrice générale de la Fondation canadienne des femmes, appuie le propos en affirmant que ceux qui collectent, possèdent et manipulent les données aujourd’hui sont ceux qui ont une position de pouvoir. « Il faudra donc s’assurer de ne pas reproduire les inégalités, en laissant le pouvoir à ceux qui ont créé des inégalités par le passé. »
Il faudra donc s’assurer de ne pas reproduire les inégalités, en laissant le pouvoir à ceux qui ont créé des inégalités par le passé.
– Paulette Senior, présidente-directrice générale de la Fondation canadienne des femmes
Benjamin Prud’homme mentionne alors ironiquement la présence de ce déséquilibre, en évoquant la représentativité du précédent panel. Portant sur la croissance économique, le panel a réuni essentiellement des hommes, alors que ce panel sur le genre a principalement rassemblé des femmes, qui ne remplissent guère la salle. On doit donc renverser la vapeur dès aujourd’hui.
Alors, il faudra empêcher les systèmes d’IA de reproduire les inégalités et d’agrandir ainsi le fossé entre ceux qui ont le pouvoir et les autres. Aujourd’hui encore, la majorité du travail de labellisation (étiquetage des données) est effectuée en sous-traitance, par des personnes issues des pays du Sud. Benjamin Prud’homme souligne alors la présence d’un système d’exploitation de ces personnes.
Il rappelle également qu’aujourd’hui, seulement la moitié de la population mondiale est connectée à Internet, laissant l’autre moitié privée de services et de participation active au développement de ces technologies. Les données de ces populations ne sont donc pas intégrées sur Internet et ce phénomène perpétue l’isolement.
La représentativité de tous les genres
Pour Benjamin Prud’homme, ce moment de l’histoire, qui marque un grand tournant dans l’essor des technologies, devrait être l’occasion de faire les choses différemment pour ne pas répéter les biais du passé.
La première étape, pour éviter les biais, consiste à s’assurer d’une bonne représentativité de toutes les populations, tous genres confondus. Un modèle d’IA ne peut être bon que si les données utilisées sont bonnes. Et pour qu’elles le soient, elles doivent être suffisamment représentatives, explique-t-il.
Les données de surveillance, par exemple, défavorisent déjà certaines populations, précise Paulette Senior. Nous devons identifier précisément où sont les barrières actuelles, sans rentrer dans la dichotomie entre homme et femme, mais de manière intersectionnelle entre les différentes identités de genre. « Si vous n’êtes pas à la table, il y a de fortes chances qu’ils soient en train de vous avoir au petit déjeuner! », mentionne-t-elle en citant l’expression anglophone bien connue. Il faut donc éviter de produire des solutions, sans y inclure toutes les diversités de population.
L’inclusion de plusieurs disciplines
Philosophe et éthicienne, Hazel T. Biana, professeure associée au département de Philosophie du DLSU College of Liberal Arts, explique ce que représente la robo-éthique, ou l’éthique des machines, et comment cette discipline est issue de l’éthique de l’IA. La robo-éthique a pour mission de s’assurer que les systèmes intelligents possèdent un comportement moral.
« Est-ce que les IA que nous développons aident vraiment les groupes vulnérables ou bien renforcent-elles les grandes corporations, dans le but de faire du profit? »
– Hazel T. Biana, professeure associée au département de Philosophie du DLSU College of Liberal Arts
« Est-ce que les IA que nous développons aident vraiment les groupes vulnérables ou bien renforcent-elles les grandes corporations, dans le but de faire du profit? », de poser Mme Biana.
L’objet d’étude de cette discipline : les agents moraux artificiels (AMA, Artificial Moral Agent). Hazel Biana déduit, à travers ses recherches, que les AMAs devraient avoir une certaine forme de pensée féministe. « On doit se demander si ces agents ont des capacités équitables, transparentes, non sexistes et non racistes », exprime-t-elle. Ce sont alors, pour elle, les développeurs qui doivent assurer cette équité. Dans ses projets de recherches, elle réunit également des sociologues et des psychologues pour créer des groupes interdisciplinaires.
En somme, Paola Ricaurte rappelle que les technologies développées par les populations du Nord ne devraient pas affecter les populations du Sud. Certes, nous ne sommes pas tous des concepteurs de logiciels, mais nous devrions tous être des participants au développement de ces technologies, notamment en produisant des données comme utilisateurs.
Crédit Image à la Une : Patricia Gautrin