Notre chroniqueuse Sylvie Leduc a constaté « une belle mobilisation canadienne, européenne et américaine » lors des « Rencontres Inégalités et intelligence artificielle : Comprendre, agir et répondre aux besoins » organisées par l’Obvia, le 31 octobre et le 1er novembre dernier. Voici ce qu’elle en a retenu!
Un petit rappel historique
L’OBVIA (Observatoire international sur les impacts sociétaux de l’IA et du numérique), créé en 2019 à l’initiative du FRQ (Fonds de Recherche du Québec), a pour but d’encourager la recherche intersectorielle sur les impacts sociétaux de l’IA et du numérique, d’accompagner l’écosystème québécois dans le développement de l’intelligence artificielle, et de valoriser la recherche québécoise sur le plan international.
Portés par l’Université Laval, l’observatoire regroupe 19 établissements postsecondaires du Québec. Le programme complet des deux jours peut être retrouvé ici.
Les éléments marquants
À la première session sur les biais algorithmiques, je ne pouvais m’empêcher de remarquer que nous nageons à peu près toujours dans les mêmes eaux depuis plusieurs années. En effet, je me rappelais les premières rencontres pré-pandémiques avec l’Institut d’éthique de l’IA de Montréal (IEIAM), fondé en 2018, auxquelles j’assistais en présentiel afin de comprendre les fondements de l’IA.
« Il devient (…) impératif que les développeurs et scientifiques des données travaillent initialement avec des experts de terrain, académiciens, en sciences sociales, psychologie, avocats, incluant les anthropologistes (…) »
Les mêmes enjeux semblent toujours présents, et avec des membres européens dans les panels, on se console en constatant que nous (au Québec) ne sommes pas les seuls à tenter de corriger ces failles de développements technologiques. En effet, si elles s’enveniment, nous aurons de plus en plus de mal à rectifier d’un angle technologique. Ce sera en plus coûteux en argent et en temps.
Il devient donc impératif que les développeurs et scientifiques des données travaillent initialement avec des experts de terrain, académiciens, en sciences sociales, psychologie, avocats, incluant les anthropologistes, afin de bien saisir les répercussions des travaux en IA sur TOUTES LES PARTIES PRENANTES directement et/ou indirectement « impactées » par cette discipline technologique.
La seconde session portrait sur le droit et l’IA, et plus particulièrement les défis d’adaptation.
À nouveau ici, la présence de juristes académiques européens apportait des perspectives parfois uniques, nous poussant à mener une réflexion plus approfondie afin de nourrir les questions et échanges.
Je me suis souvenu ici de ma participation au symposium en préparation à la Revue de droit de McGill le 9 février dernier dont le sujet était « Reconcevoir la justice : Le pouvoir restoratif et divisif de l’intelligence artificielle (IA) ». J’avais l’impression d’être dans le même film… On semble travailler en silo, à mon avis.
L’une des constantes ressorties était définitivement – tout comme en février dernier – le manque criant de formation sur les divers outils électroniques façonnés par l’IA. En effet, en informatique comportementale, les études démontrent que les utilisateurs uni-dimensionnels dans leurs profils de compétences, n’oeuvrant pas dans le domaine des TI, et qui démarrent sans formation de base en technologies de l’information, ont tendance, soit à hyper-utiliser la tech et tomber dans l’excès lors de manoeuvres interactives avec les composantes matérielles (hardware), soit à la craindre tout bonnement et, donc, ne bénéficient pas de leurs innombrables avancées positives et innovantes.
Suivre des formations de base évolutives par des experts (il faut magasiner) amène de l’équilibre dans nos interactions avec la tech, que ce soit individuellement et/ou en équipe. D’un point de vue juridique, les citoyens et consommateurs deviennent plus conscients des ramifications possibles face à l’ampleur de la technologie et de l’utilisation qu’ils en font. Ils s’auto-régulent et gèrent les risques afférents.
En après-midi, la découverte d’un livre
Virginia Eubanks, auteure américaine du livre « Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor » (« Automatiser l’inégalité : comment les outils de haute technologie profilent, surveillent et punissent les pauvres ») est venue nous entretenir du sujet.
Le sujet de la vérification électronique des visites, implanté par les États américains pour tous les services de soins personnels et de santé à domicile de Medicaid, dont j’apprenais l’existence, a engendré beaucoup de partages et d’échanges.
Chaque prestataire recevant des services présente des enjeux de santé et/ou de soins personnels créés par une situation qui lui est très individuelle. Ainsi le fournisseur de services se sent pressé lors de visites à domiciles et fait souvent fi de l’humain qu’il a devant lui, afin de rencontrer les requis de Medicaid. Même phénomène pour les robots de soin (carebots).
Encore ici, le volet UI/UX signifiant respectivement User Experience (expérience utilisateur) et User Interface (interface utilisateur) semble avoir été omis de l’équation – ici, il y en a deux : le fournisseur de soins et le prestataire recevant/bénéficiant des soins. Et ce, dès les premiers sketchs de design de la solution/application afin de bien construire le produit… L’empathie est de mise.
Une technologie mal comprise sera mal utilisée. Ainsi, l’optimisation des données pour toutes les parties prenantes – essentielles en IA – sera laborieuse et souvent inexacte. Avec le temps, l’outil perdra de sa valeur et de sa pertinence pour les nombreux utilisateurs, et autres parties prenantes. Sans parler des coûts associés…
En fin de journée, un atelier participatif mené de mains de maîtres par une membre du Collectif Numérique Responsable et Soutenable afin de cartographier et prioriser les enjeux importants touchant l’IA en nous divisant en plusieurs équipes fut merveilleux. Bien hâte de voir les résultats et actions concrètes qui suivront.
« (…) il est très regrettable que nos Premières Nations autochtones soient encore très peu assises à la table DÈS LE DÉPART. »
En lisant le programme des panels du deuxième jour, et les rôles des divers membres y participant, je constatais des objectifs et inquiétudes tout à fait légitimes et très nobles. Afin d’avoir l’attention de nos gouvernements respectifs, j’ai suggéré en après-midi d’apporter un oeil et une contribution plus pragmatique et de ne pas se détourner des angles économiques et financiers lorsqu’en discussions avec les divers paliers de gouvernement.
Je rappelais aussi l’impératif de garder sur notre radar les très importants impacts émanant du retour de Trump à la Maison Blanche sur tout ce qui touche le numérique (incluant l’IA). Inopportunément, mes craintes se sont avérées fondées quelques jours plus tard, et les travaux en cours par les membres de l’Obvia pourraient donc avoir à être revus en partie ou dans leur intégralité.
Pour terminer, il est très regrettable que nos Premières Nations autochtones soient encore très peu assises à la table DÈS LE DÉPART. Il faut rectifier cela rapidement. Les industries culturelles commencent à avoir une certaine visibilité avec nos chercheurs ; c’est bon signe. Terminons donc là-dessus!
Crédit Image à la Une : Rencontres Inégalités et intelligence artificielle : Comprendre, agir et répondre aux besoins