L’avenir de l’IA sera-t-il féministe?

L’intelligence artificielle (IA) pose un double péril aux femmes : non seulement cette technologie leur est difficilement accessible, mais elles sont plus susceptibles que leur comparses masculins d’êtres victimes des biais qui en découlent. Ce sont là des défis que l’Organisation des Nations unies pour l’éducation, la science et la culture (UNESCO) et le Forum économique mondial (FEM) veulent relever.

Dans le cadre de la Journée internationale des droits des femmes le 8 mars, les deux organismes ont présenté la conférence « Problème de fille : briser les préjugés dans l’IA », lors de laquelle un panel d’expertes s’est penché sur les enjeux présentés ci-haut.

QUELLE EST LA PLACE DES FEMMES DANS L’IA?

Tout d’abord, les panélistes se sont adonnées à un état des lieux troublant sur la présence des femmes dans le milieu des technologies numériques et de l’IA.

« Seulement 22 % des personnes qui conçoivent des algorithmes en IA sont des femmes. C’est une situation tragique, car nous savons que les algorithmes qui sont présentement créés sont teintés par les préjugés de leurs créateurs », souligne Kay Firth-Butterfield, responsable de l’IA et de l’apprentissage automatique et membre du comité exécutif du FEM.

En effet, selon l’UNESCO « il est prouvé que d’ici 2022, 85 % des projets d’IA donneront des résultats erronés en raison de préjugés si l’IA n’est pas plus inclusive et diversifiée ».

Les femmes et les filles ont quatre fois moins de chances de savoir programmer des ordinateurs et 13 fois moins de chances de déposer un brevet technologique. Elles sont également moins susceptibles d’occuper des postes de direction dans les entreprises technologiques, rapporte l’organisme.

De plus, les femmes et les filles sont 25 % moins susceptibles que les hommes de savoir comment tirer parti de la technologie numérique à des fins essentielles.

Enfin, à peine 10 % des fondateurs de start-up en IA sont des femmes, ajoute Mme Firth-Butterfield.

Pourtant, l’idée que les talents féminins en informatique se font rares est un « mythe », selon la panéliste Nanjira Sambuli, du groupe de haut niveau du Secrétaire Général des Nations Unies pour la Coopération Numérique.

« La réalité est que, lorsqu’un secteur gagne en valeur économique, on a tendance à repousser du coude le rôle des femmes », insiste-t-elle.

DES SOLUTIONS

Alors comment renverser cette triste tendance?

Pour Ashwini Asokan, PDG et cofondatrice de Mad Street Den, une société de vision par ordinateur et d’IA, il est essentiel d’impliquer les personnes provenant de tous les milieux dans la création et l’encadrement de cette technologie.

« Il faut voir l’IA comme un outil. Nous devons nous demander qui s’en sert, dans quelles circonstances et à quelles fins. De plus, il est nécessaire de démocratiser cet outil », insiste l’entrepreneure.

De son côté, Anne Bioulac, membre de l’initiative « Women in Africa », il est de notre « devoir de donner les moyens » économiques aux femmes de s’impliquer dans l’IA.

« Il s’agit d’une technologie qui est chère et qui prend du temps à développer », soutient-elle.

Women in Africa développe un apprentissage en ligne basé sur l’IA pour permettre aux femmes africaines d’utiliser l’IA dans l’entreprenariat numérique. Cette initiative démontre les avantages de l’implication de femmes dans le secteur des start-up.

Effectivement, 24 % de femmes africaines sont des entrepreneures, rappelle Mme Bioulac, et 84 % d’entre-elles indiquent assumer ce rôle pour avoir un impact positif sur leur collectivité.

MORATOIRES

À l’avenir, il ne faudra pas non-plus hésiter à bannir certaines formes d’IA, croit Meredith Broussard, professeure agrégée de journalisme de données à l’Université de New York.

« Dans certains cas, il est important d’examiner la provenance des données d’entraînement des algorithmes, afin de déterminer s’il y a des biais. Cependant, dans d’autres cas il serait nécessaire de dire : « n’utilisons pas l’IA dans ce contexte-ci ». L’exemple de la reconnaissance faciale en est un qui me vient à l’esprit. »

D’ailleurs, cette technologie fait consensus auprès des panélistes, qui y voient un cas probant de ce qui ne va pas en IA.

En effet, une récente étude du MIT sur trois engins de reconnaissance faciale utilisées par les forces policières démontre un taux d’erreur pour la reconnaissance du visage des femmes de couleur situé entre 23,8% à 36%, tandis que pour les hommes à la peau plus claire, il se situait entre 0,0 et 1,6%.

À la suite de ces révélations, les géants Amazon et IBM ont annoncé certaines formes de moratoires internes au développement et à l’utilisation de cette technologie en 2020.

Est-ce là un signe que le milieu de l’IA s’apprête à connaître sa révolution féministe ? La discussion se poursuit.

Crédit photo: pexels/rfstudio

Un commentaire
Laisser une réponse

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *