Premières Nations et IA: la souveraineté des données pour combattre les biais

Les vœux pieux des chartes éthiques, tels que la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle (IA), n’auront pas eu les résultats escomptés pour les peuples autochtones. Ceux-ci choisissent plutôt de compter sur une prise de pouvoir sur les outils du numérique et sur la souveraineté des données pour assurer leur représentativité dans ces secteurs.

Bien conscients de ces enjeux, les experts et les membres des communautés ont décidé de prendre les choses en main.

Par exemple, le Centre de gouvernance de l’information des Premières Nations, est né en 2010 à la suite d’initiatives qui remontent jusqu’aux années 1990.

En effet, cet organisme s’efforce de concevoir des recensements faits par et pour les autochtones du Canada.

Celui-ci a été créé à la suite d’une décision du gouvernement fédéral en 1994 d’exclure les membres des Premières Nations vivant dans les réserves de ses trois grandes enquêtes nationales sur la population.

« Préoccupés par le manque de données qui en résulte, les défenseurs des Premières Nations et les universitaires se sont réunis et c’est ainsi que le Centre de gouvernance de l’information des Premières Nations a pris racine », explique-t-on sur le site internet de l’organisme.

Pour sa part, le professeur Jason Edward Lewis du département d’arts informatiques et de design à l’Université Concordia est le codirecteur de Aboriginal Territories in Cyberspace (en français : Territoires autochtones du cyberespace).

Ce réseau de recherche propose des ateliers de conception de jeux vidéo, de création artistique et des symposiums, tous conçus pour « raconter notre histoire », souligne M. Lewis, qui est détenteur de la chaire de recherche universitaire sur les médias informatiques et l’imaginaire du futur autochtone.

Ce dernier est convaincu que la prise de pouvoir des Premières Nations sur l’IA est non seulement nécessaire, mais aussi inévitable.

« Nous ne pouvons pas nous permettre de tourner le dos au numérique, simplement parce qu’il s’agit d’outils très puissants et qui sont présents partout, mais aussi parce que le fait de nous les approprier nous permettra de construire des algorithmes qui répondront à notre volonté » Jason Edward Lewis, professeur, département d’arts informatiques et de design, Université Concordia

Celui-ci reste convaincu que si la souveraineté des autochtones sur leurs données passe par un mouvement activiste et représentatif, elle ne pourra cependant pas se faire sans l’apport des institutions publiques.

« Nous avons besoin de lois et de réglementations. Les chartes éthiques font preuve d’une bonne volonté du milieu, mais elles sont loin d’être suffisantes. Pis encore, les corporations se les réapproprient pour légitimer leurs actes non éthiques. Ils disent : « voyez, nous avons signé cette déclaration, nous sommes de bons citoyens corporatifs », mais dans les faits, c’est tout le contraire », martèle le professeur Lewis.

La création du pôle d’IA à Montréal, et plus largement de l’industrie du numérique au Québec, a été une occasion manquée d’inclure les Premières Nations dans le processus de réglementation de ces technologies et dans les instances décisionnelles, souligne-t-il.

« La représentativité (dans l’écosystème de l’IA) a presque été nulle. Alors non, je ne crois pas que l’IA québécoise ait eu quelques retombées positives que ce soit pour les autochtones » -Jason E. Lewis

DES DONNÉES HISTORIQUEMENT BIAISÉES

Pour plusieurs, l’IA est synonyme avec l’amélioration de la qualité de vie. Toutefois, pour les personnes victimes du racisme systémique, incluant les peuples autochtones, les données que l’on collecte dans les sondages ou pour alimenter un modèle d’apprentissage automatique perpétuent des biais douloureux.

« Encore aujourd’hui, des jeux de données datant du milieu du XIXe siècle sont utilisés dans des systèmes d’IA. Il s’agit de données qui sont vraiment horribles » -Jason E. Lewis

L’expert raconte comment les données collectées à l’époque d’un gouvernement ouvertement colonisateur sont sciemment teintées de racisme à des fins politiques.

« Les recensements étaient utilisés pour justifier des lois et des mesures motivées par des objectifs colonialistes. Il est donc prévisible que les données qui en étaient extraites fussent marquées par des biais à l’encontre des autochtones », souligne-t-il.

Cet exemple s’inscrit dans une longue histoire de préjudices à l’endroit des peuples issus des Premières Nations du Canada et du Québec.

« Il est encore difficile de nos jours de créer des jeux de données représentatifs au sein des institutions gouvernementales, d’une part à cause des biais systémiques encore perpétués, mais aussi parce que plusieurs membres des communautés se méfient de celles-ci et refusent de participer aux sondages et aux recensements », ajoute Karine Gentelet, professeure au département des sciences sociales de l’Université du Québec en Outaouais et titulaire de la Chaire Aboena-ENS-OBVIA sur l’IA et la justice sociale.

Celle-ci donne en exemple les données sur la COVID-19 dans lesquelles sont sous-représentés les autochtones.

« Ils ont été plus affligés par la pandémie que la moyenne de la population, mais comme ils ont été classés comme faisant partie de la catégorie « autres » dans la classification de l’origine ethnique dans certains sondages, ils ont mal été représentés », indique-t-elle.

Effectivement, une recherche des Instituts de recherche en santé du Canada démontre comment « les problèmes actuels de qualité des données sur les peuples autochtones, notamment les erreurs de classification et les biais de non-réponse, contribuent systématiquement à une sous-estimation importante des inégalités dans les déterminants de la santé, l’état de santé et l’accès aux soins de santé entre les peuples autochtones et non autochtones au pays ».

De façon inhérente, les algorithmes d’IA sont conçus la plupart du temps par des entreprises où des personnes blanches sont majoritaires; les biais, conscients ou inconscients, des concepteurs sont transmis à la machine, croit le professeur Lewis.

« Cette idée que l’IA va révolutionner nos vies pour le mieux, ça fait partie de l’utopie numérique de la Silicon Valley, qui est très majoritairement blanche. Par conséquent, tous les produits d’IA qui en ressortent comportent des biais, dont les minorités, incluant les autochtones, sont les premières à en subir les conséquences », affirme-t-il.

Crédit photo: Getty Images

Laisser une réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *