Il y aura désormais un comité de l’éthique sur l’IA générative en enseignement supérieur. La nouvelle est tombée ce lundi 15 mai, au Westin Montréal, alors que s’enchaînait une série de conférences et de discours autour de l’électrochoc de l’intelligence artificielle et d’outils génératifs comme Chat GPT dans le secteur de l’éducation postsecondaire. L’initiative vise à répondre au manque d’encadrement de l’évolution rapide des technologies, qui plonge de nombreux étudiants et enseignants dans une profonde incertitude.
Présenté comme « la grand-messe de l’IA en enseignement supérieur », l’événement, qui a mobilisé des centaines d’acteurs issus de l’écosystème de l’innovation et de l’éducation, incluant des ministres, devait répondre à beaucoup d’attentes, mais n’a fait qu’effleurer l’idée d’un cadre régulant l’IA, sans présenter de mesures concrètes à instaurer dans l’immédiat, sinon la poursuite de consultations en ce sens…
La création d’un comité de l’éthique
La grande nouvelle de la journée a été communiquée en appel audio à distance par la présidente du Conseil supérieur de l’éducation (CSE), Monique Brodeur, qui a fait l’annonce de la création d’un comité de l’éthique afin d’analyser, au cours des prochains mois, les retombées des IA génératives sur l’enseignement supérieur, et de former le milieu. Si l’on espère que les discussions de la journée inspirent l’élaboration de protocoles et critères d’évaluation sur lesquels le comité fondera ses décisions, force est d’admettre qu’on est encore loin de leur ébauche…
« la Commission de l’éthique en science et en technologie (CEST) a invité le Conseil supérieur de l’Éducation à créer un comité d’experts conjoint. Ce comité mènera, dans les prochains mois, des travaux de réflexion, de consultation et d’analyse quant aux IA génératives en enseignement supérieur. »
– Monique Brodeur, présidente du Conseil supérieur de l’éducation (CSE)
« L’avancée récente des IA génératives telles que Chat GPT soulève de nombreuses préoccupations au sein des établissements d’enseignement supérieur. Plusieurs intervenants déplorent l’absence de balises quant à l’utilisation de ces IA génératives, particulièrement en ce qui concerne l’enseignement à l’évaluation.
C’est pourquoi, récemment, la Commission de l’éthique en science et en technologie (CEST) a invité le Conseil supérieur de l’Éducation à créer un comité d’experts conjoint. Ce comité mènera, dans les prochains mois, des travaux de réflexion, de consultation et d’analyse quant aux IA génératives en enseignement supérieur.
Ainsi, le comité d’experts formé par le CSE et la CEST aura notamment pour mandat d’identifier et d’analyser les enjeux et les défis pédagogiques et éthiques, les risques associés aux usages actuels et futurs des IA génératives — le tout au regard de la formation et de l’éducation des étudiants, de même que de la formation des enseignants au sein des établissements d’enseignement supérieur québécois.
En vue de procéder à ces travaux, le comité conjoint va procéder à une consultation qui sera lancée (le 16 mai 2023). Celle-ci vise à mieux comprendre les préoccupations des principaux acteurs de l’enseignement supérieur, qui doivent s’assurer, plus que jamais, de faire en sorte que tous les apprenants aient la possibilité de développer les compétences nécessaires pour évoluer avec le numérique », a déclaré Mme Brodeur.
Un forum pour suggérer la mise en place de… consultations
Mais à défaut de marquer l’histoire comme point tournant vers une société plus résiliante, où l’IA serait régulée, cet événement semble s’inscrire dans la longue liste déroulante des rendez-vous passifs à la fin desquels on se demande : « qu’est-ce qui a avancé, concrètement ? »
Car de manière générale, en marge de la création du comité, au travers des conclusions et tables rondes de la journée, on a surtout évoqué l’idée de « créer une plateforme provinciale pour y mener des échanges », la tenue de prochains forums, et l’envoi d’invitations à des participants issus de divers domaines, tels que « des artistes, professeurs, ingénieurs », pour prendre part aux futures consultations.
Ces dernières s’étireront sur plusieurs mois, dans l’espoir de mieux accompagner les professeurs et étudiants quant aux manière d’aborder l’IA générative. Pendant ce temps, les maux de têtes des enseignants, eux, s’intensifient de jour en jour…
Un rappel des notions de base, mais peu de concret…
On promettait d’attirer des centaines de personnes issues des cégeps, des universités et du milieu de l’IA. Jusqu’ici, promesse tenue, puisque l’intérêt du milieu de tous les paliers de l’éducation pour les questions d’éthique, d’encadrement et de reprise de contrôle sur le modèle d’enseignement ne tarit pas. Le problème, c’est que pour satisfaire cette curiosité, ce besoin de réponses, il fallait proposer de vraies solutions, ou, du moins, inspirer l’élaboration d’un plan préliminaire, qui fait cruellement défaut à l’issue de cette « réflexion collective ».
Pendant l’allocution des dignitaires et les discours de scientifiques et universitaires comme Yoshua Bengio, Nadia Naffi et Bruno Poellhuber, on a démystifié une fois de plus les modèles d’IA dite « générative », afin d’en éviter la diabolisation, en reconnaissant quand même les implications de cette technologie « de rupture » et ses effets bouleversants sur l’éducation.
Suivant une table ronde portant sur les « perspectives transdisciplinaires et intersectorielles en enseignement supérieur, à l’heure de la démocratisation de l’intelligence artificielle », on a tâché d’entrer dans le vif du problème et de mieux rendre compte des aléas de ses innovations, pourtant déjà bien connus des principaux intéressés : les professeurs et étudiants déjà aux prises avec les défis quotidiens d’enseigner et d’apprendre.
Puis, s’est ensuivie la tenue de présentations qualifiées de « mini-conférences », en simultané, sur une période d’une heure et demie durant laquelle six experts poussaient la réflexion selon plusieurs volets indissociables : enseignement et pédagogie; intégrité académique; évaluation des apprentissages; formation continue; éthique, réglementation et encadrement; et équité, diversité, inclusion et justice sociale.
De manière transversale, on y a fait un rappel de ce qu’est l’IA, de la quantité importante de données sur laquelle elle repose pour opérer, des lois en Europe et au Canada sur la protection des renseignements personnels, et un survol des enjeux éthiques identifiés dans la littérature des dernières années quant à la vie privée et aux biais discriminatoires que présentent les algorithmes.
Rien de très nouveau si l’on considère ce qui se dit depuis des mois, voire des années au sujet de l’IA. Mais ce que l’on retient des échanges, en phase avec l’actualité plus récente, c’est qu’aujourd’hui, l’IA pose malheureusement l’étudiant en tricheur, et fait perdre du temps aux enseignants. Alors que ces derniers tentent tant bien que mal de reconnaître le contenu plagié, ils en sont, comme leurs étudiants, à se gratter la tête pour savoir, en toute bonne foi, où tracer la limite de l’acceptable entre ce qui relève de l’assistance et ce qui s’inscrit plutôt dans un contexte de plagiat.
Quelles sont les vertus et les vices de l’IA ? Comment intégrer la notion de consentement et, surtout, uniformiser l’encadrement au travers de protocoles inclusifs et éthiques ? Les questions étaient dans l’air, mais souvent sans réponse très avisée…
Au cours des échanges résumant les conférences, on pouvait entendre des vérités de La Palice, telles que « Certes, il faut prendre en compte les angoisses des étudiants, mais aussi celles de nos enseignants », de même que plusieurs remarques justifiant que les démarches menant vers des mesures d’encadrement « prennent du temps ».
« Toute technologie a ses avantages et ses inconvénients (…) Il faut prendre le temps, c’est ce qui a été mentionné plusieurs fois aujourd’hui : il faut prendre un peu de recul et prendre ce temps-là pour analyser le tout, mieux comprendre l’impact de ces technologies de rupture pour mieux cohabiter avec elles », a insisté la ministre de l’Enseignement supérieur, Pascale Déry. Or, du temps, c’est bien ce dont on manque, quand on sait qu’on ne remettra pas le génie dans la bouteille !
L’exception : la conférence d’Andréane Sabourin Laflamme
Si une conférencière s’est démarquée pour sa pertinence et ses efforts à dégager des pistes de solution plus concrètes, c’est sans doute Andréane Sabourin Laflamme, professeure de philosophie et d’éthique de l’IA au Cégep André-Laurendeau, qui a su élever les échanges et répondre avec lucidité aux questions lancées, tout en proposant des avenues tangibles à explorer, durant sa conférence, « Équité, diversité, inclusion et justice sociale ».
Les audits algorithmiques : une solution technique
Questionnée par CScience à savoir quelles solutions concrètes permettaient d’agir contre les biais discriminatoires de l’IA, et comment on pouvait établir les protocoles tant attendus dans le cadre de son développement, Mme Sabourin Laflamme s’est enthousiasmée à l’idée de répondre. « Si j’avais eu plus de temps, j’aurais parlé des pistes de solution », a-t-elle entamé, montrant les diapositives de sa présentation qui y étaient justement consacrées.
« Il existe des solutions techniques, mais qui sont imparfaites, qui doivent probablement être combinées et qui — j’en suis convaincue — nécessitent une évaluation contextuelle propres aux enjeux spécifiques. Il existe une solution technique, soit l’approche des ‘audits algorithmiques’, qui permet d’évaluer, avec toutes sortes de processus techniques, par exemple, la représentativité des données, et de vérifier s’il y a présence d’effets discriminatoires. »
Légiférer en s’inspirant de l’Europe
La professeure a également évoqué le projet de loi pour réguler l’IA en Europe. « Lorsqu’elle sera en vigueur, la loi exigera que tout système à risque élevé soit jugé conforme à certains critères, au regard d’entraînements et de tests notamment pour en évaluer les biais discriminatoires, et ce, avant sa mise en marché », a-t-elle précisé, rappelant qu’un changement législatif de cette ampleur créerait forcément un précédent à l’échelle globale, et « ferait des petits », comme on dit, jusqu’au Canada.
« Une autre solution consiste à favoriser la diversité dans les équipes de production de l’IA. »
– Andréane Sabourin Laflamme
La place de la diversité
« Une autre solution consiste à favoriser la diversité dans les équipes de production de l’IA », d’amener Mme Sabourin Laflamme, avec beaucoup de fraîcheur. Cette suggestion fait écho aux débats liés à l’enjeu du manque de diversité soulevé dans le milieu des médias et de la production de contenus culturels, où l’on commence tout juste à remettre en question certains codes et méthodes de sélection homogène.
À titre d’exemple, malgré tous les efforts récemment déployés dans le secteur médiatique, ne serait-ce que pour montrer davantage de visages issus des minorités au petit écran, on peine et tarde toujours à agir pour renforcer la présence de diversité derrière l’écran ainsi qu’au sein des rédactions et des équipes de production.
Pourtant, c’est bien au début de la chaîne que se prennent les décisions « impactantes », et que l’on définit les orientations de la production, un peu comme pour le développement de l’IA… Mais l’enjeu, selon Mme Sabourin Laflamme, c’est qu’ « Évidemment, favoriser l’inclusion de la diversité à l’étape de la création de l’IA n’est pas une solution parfaite, car même les gens issus de la diversité sont porteurs de biais. Ce n’est qu’une solution, et non la seule. »
Elle a ensuite évoqué, sans le nommer, le technofuturisme, cette approche littéraire qui permet, comme elle l’explique, d’évaluer l’impact éthique des technologies en imaginant « un scénario fictif dans lequel on anticipe le risque associé à une situation particulière ».
Enfin, elle a mentionné le concept d’ « ethics by design » (éthique de conception), qui consiste à intégrer au dispositif technologique, dès sa conception, une perspective éthique, grâce à l’implication d’un comité d’éthique.
Crédit Image à la Une : Chloé-Anne Touma