Éducation : une intelligence peut en cacher une autre

Éducation : une intelligence peut en cacher une autre

Si l’intérêt pédagogique et scientifique des « nouvelles avenues numériques » est indéniable, les professionnels de l’éducation s’inquiètent des risques non anticipés qui mettraient à mal l’éthique dans un domaine très sensible.

Personnalisation des apprentissages, prise en charge de tâches répétitives, tuteurs intelligents, évaluation des élèves et des enseignants, formation sur appareil mobile à distance… L’introduction de l’IA a fait son apparition dans le domaine de l’éducation depuis plusieurs années, souvent même à notre insu.

« L’IA a du potentiel au niveau du soutien à l’apprentissage des étudiants, du soutien aux enseignements et aux enseignants, et au niveau des institutions. Mais ce potentiel a des risques auxquels il faut réfléchir pour les anticiper et les diminuer le plus possible », explique Simon Collin, professeur à la Faculté des sciences de l’éducation de l’UQAM.

Titulaire de la chaire de recherche du Canada sur l’équité numérique en éducation, il est coauteur, avec Emmanuelle Marceau, éthicienne et professeure au Cégep du Vieux-Montréal, d’une chronique publiée en novembre 2021, alertant sur les enjeux éthiques et critiques de l’IA en éducation.

Selon eux, il y a un enjeu de consentement, « libre et éclairé », et un enjeu de discrimination avec l’utilisation de l’IA. « L’éducation a plusieurs mandats dont celui de l’éducation à la démocratie. Si on observe des biais sur ces enjeux, on se met en porte-à-faux direct avec ce mandat », prévient Simon Collin.

Le sujet est tellement sensible que l’UNESCO s’est penchée dessus pour adopter en 2019 le Consensus de Beijing sur l’intelligence artificielle et l’éducation, qui émet plusieurs principes, dont la promotion et l’utilisation équitable et inclusive de l’IA dans l’éducation, une IA respectueuse de l’équité entre les genres et propice à l’égalité des genres ou encore une utilisation éthique, transparente et vérifiable des données et des algorithmes de l’éducation.

« L’IA va transformer l’éducation en profondeur. Les outils pédagogiques, les modes d’apprentissage, l’accès au savoir et la formation des enseignants vont connaître une révolution. » Audrey Azoulay, Directrice générale de l’UNESCO

DES DONNÉES QUI CATÉGORISENT LES ÉLÈVES

La collecte des données, « sans consentement libre et éclairé » est justement au premier rang des réserves de Simon Collin et Emmanuelle Marceau. « Comment s’assure-t-on que les différentes parties prenantes, enseignants, parents, élèves, aient un consentement libre et éclairé dans un processus collectif », s’inquiète le professeur de l’UQAM. Il précise que les parents des élèves de moins de 14 ans doivent donner leur consentement.

« On prélève les données d’élèves mineurs, des données fines avec des calculs très fins, et on parvient à catégoriser les élèves » s’inquiète-t-il en ajoutant que légalement, faute de fonds publics, ces données appartiennent à Google.

Crédit photo : Pexels / Ksenia Chernaya

Le Rapport du conseil supérieur de l’éducation du Québec sur l’IA en éducation, paru en novembre 2020, se faisait déjà l’écho des inquiétudes de Yoshua Bengio : « Les individus ne savent pas quelles sont les données récoltées sur eux ni à quoi elles servent. Ces exemples confirment que l’intelligence artificielle se développe actuellement selon un objectif de maximisation du profit, sans réglementation ni obligation éthique.

En France, dans un rapport de 2017, commandé par le ministère de l’Éducation nationale, François Taddei, Directeur du Centre de Recherche interdisciplinaire, s’interroge sur la multiplication des données : « Comment les rendre disponibles dans l’intérêt des apprenants tout en les protégeant de toute forme de prédations commerciales ou stigmatisantes ? En d’autres termes, comment combiner une démarche d’open data et une démarche de sécurisation ? »

Il préconise la protection des données des élèves, par notamment la création d’un identifiant numérique unique, qui suivrait l’élève de la maternelle à la formation continue, et grâce auquel l’apprenant pourrait « maîtriser durablement ses propres traces numériques et choisir lui‐même ce qu’il partage, dans quel cadre d’usage, et avec qui ».

FORMER À L’IA POUR PRÉVENIR LES DÉRIVES

Tous les professionnels de l’éducation se rejoignent pour dire qu’il faut former le personnel enseignant et les apprenants à l’IA.

« Il est important de former les futurs enseignants aux rudiments de l’intelligence artificielle en éducation, non pas pour qu’ils soient des experts de ce domaine, mais plutôt pour les préparer à l’école de demain », écrivait Thierry Karsenti, chercheur en éducation à l’Université de Montréal, en 2018, dans un article (Intelligence artificielle en éducation : L’urgence de préparer les futurs enseignants aujourd’hui pour l’école de demain ?). Il ajoutait même :

« Former les enseignants à l’IA, c’est aussi en quelque sorte œuvrer à prévenir les dérives potentielles qui pourraient survenir dans un proche futur » – Thierry Karsenti, chercheur en éducation, Université de Montréal

Pour Simon Collin, l’établissement scolaire est justement l’endroit de prédilection pour former à l’IA. « L’objectif n’est pas de former des informaticiens mais bien des citoyens avisés de l’IA, qui puissent adapter leur comportement en conséquence et peser sur les orientations que l’on donne à l’IA », précise le professeur.

Avec Emmanuelle Marceau, le titulaire de la chaire de recherche du Canada sur l’équité numérique en éducation va plus loin et considère que la formation ne doit pas se limiter aux « bons usages » de l’IA mais doit « s’articuler autour de la compréhension des interactions entre la conception et l’usage de l’IA d’une part, et entre les usages et leurs implications éducatives et sociales d’autre part. »

En France, la Commission nationale de l’informatique et des libertés (CNIL) préconise la formation à l’éthique de tous les maillons de la « chaîne algorithmique [concepteurs, professionnels, citoyens]».

UN MÉTIER D’ENSEIGNANT BOULEVERSÉ

Pourtant, l’IA suscite des interrogations dans le domaine de l’éducation ou les enseignants craignent de perdre leur emploi.

Le Conseil supérieur de l’éducation du Québec rassure dans son rapport : « Les qualités humaines propres à la profession, telles que le jugement critique, l’empathie, la bienveillance et la flexibilité cognitive, restent difficiles à reproduire, si bien que l’enseignement ferait partie des cinq emplois les moins menacés de disparition en raison de l’automatisation. »

Pourtant le métier d’enseignant va être bouleversé par une IA de plus en plus omniprésente, qui effectuera les tâches ingrates et répétitives, évaluera les élèves et leurs tuteurs, ajustera le programme.

« L’enseignant peut se recentrer sur son rôle pédagogique, sa relation avec l’élève », se réjouit Simon Collin. L’enseignant sera un accompagnateur et disposera d’outils pour adapter ses stratégies. Toutefois, M. Collin met en garde :

« Il ne peut pas y avoir de réduction du pouvoir pédagogique de l’enseignant. L’IA est là pour soutenir l’aide à la décision mais pas pour prendre la décision. » Pr Simon Collin, Faculté des sciences de l’éducation de l’UQAM

ÊTRE ASSOCIÉ DÈS LA CONCEPTION

Mais le professeur de l’UQAM va plus loin et souhaite que l’IA soit dotée d’une réflexion éthique et critique imbriquée en son sein même. C’est pourquoi il estime que le corps enseignant et les décideurs des programmes scolaires devraient être associés lors de la phase de conception des outils assistés par l’IA.

« Il est important que les acteurs éducatifs soient impliqués dans le processus même de conception pour s’assurer que la technologie est pertinente et cohérente avec les missions éducatives, et qu’elle ne renforce pas les inégalités scolaires », se soucie Simon Collin.

Pour lui, cette réflexion doit être menée localement car « la singularité des milieux scolaires québécois est importante et la notion de consentement est vécue différemment en fonction des règles en vigueur et des pratiques culturelles ».

Crédit photo : Pexels / Mart Production