L’IA fait une rentrée scolaire plutôt timide

Dans le cadre des Rendez-vous de l’IA de l’Université de Montréal, nous avons constaté que le milieu de l’Éducation intègre l’intelligence artificielle avec prudence dans un contexte académique – déjà sujet à plusieurs bouleversements depuis la pandémie.

L’IA peut être vue comme un Mini-Wheat, avec un côté givré rempli de promesses et un côté plus menaçant qui appelle à la responsabilisation pour éviter les dérapages.

LES PROMESSES

Ekaterina Kochmar, cofondatrice de l’entreprise Korbit offrant du tutorat intelligent.

Parmi les fonctionnalités de l’IA dans les écoles, on parle actuellement de tuteur intelligent, de correction automatisée des travaux, de révision contre le plagiat, de parcours personnalisé et de robotisation.

L’entreprise Korbit Technologies, par exemple, a développé un mode d’apprentissage automatique pour améliorer la formation à distance et développer une expérience d’apprentissage en ligne plus personnalisée.

Du tutorat intelligent qui prodigue à chaque apprenant des leçons en science de données. Un cordonnier bien chaussé, pour une fois!

« La vitesse d’apprentissage ne se compare pas à l’éducation traditionnelle. » Ekaterina Kochmar, cofondatrice de l’entreprise Korbit et chargée de cours à l’Université de Bath en Angleterre

Korbit a comparé son programme d’études personnalisées grâce à l’IA à des cours traditionnels en ligne[i] et affirme obtenir augmentation de l’apprentissage de l’ordre de 59 % avec l’IA et une augmentation de la durée des études de l’ordre de 70 %.

Ultimement, la vision de Korbit serait de transformer l’éducation en donnant un enseignement personnalisé à des millions d’étudiants, à faible coût, n’importe quand et n’importe où.

On dit également que certains modèles d’IA pourraient permettre à un enseignant de corriger quelque 16 000 pages de texte en 20 secondes.

QUELQUES PIONNIERS

L’enseignement à distance partiel (au secondaire) et quasi total (dans les cégeps) de la province, forcé par la pandémie, a fait réfléchir les institutions sur les perspectives d’intégrer plus de numérique dans l’apprentissage des jeunes.

Le Collège Dawson à Montréal s’est doté d’un plan sur trois ans pour devenir un centre d’excellence en éducation en IA au niveau collégial. À terme, le projet piloté par le professeur Joël Trudeau devrait inclure de l’IA dans les programmes d’études, les certifications et des activités parascolaires et interdisciplinaires. Il vise aussi le développement professionnel et la recherche fondamentale.

D’autres cégeps comme ceux de Chicoutimi et de Rimouski se sont dotés de robots conversationnels pour offrir du soutien psychologique ou social et du divertissement.

La CSSDM utilise aussi la robotique pour enseigner la programmation de manière ludique, c’est le cas d’Ozobot adopté par certains professeurs.

LES MENACES

L’évolution de l’IA comme outil pédagogique soulève cependant de nombreuses réserves. La réduction des rapports humains au profit de la rapidité pose un enjeu majeur pour Marc-Antoine Dilhac, directeur scientifique Algora Lab, professeur de philosophie à l’Université de Montréal, membre associé du Mila, et titulaire de la Chaire CIFAR en Éthique de l’IA.

Selon ce dernier, il faut revenir à la base pour voir que l’apprentissage demande la transmission et la réception de contenu. « Apprendre est une fonction active qui demande une relation à deux consciences : l’apprenant et
l’enseignant », explique-t-il.

Il donne l’exemple d’une langue acquise avec l’application bien connue Duolingo. « Est-ce qu’on peut réellement se débrouiller sans avoir pratiqué cette langue dans un contexte social? », questionne-t-il.

« Ce qui est laissé de côté par l’IA, c’est l’aspect socialisation de l’éducation à travers la relation humaine avec un enseignant et d’autres élèves. » Marc-Antoine Dilhac, directeur scientifique – Algora Lab.

Le rapport du Conseil supérieur de l’éducation[ii], paru en 2020, montre d’ailleurs une résistance des enseignants au numérique selon M. Dilhac. « Les enseignants sont conscients de la valeur humaine », affirme-t-il.

Utilisés sous la forme d’assistants, les outils de l’IA deviennent bénéfiques dans l’enseignement de nombreuses matières, mais comment s’assurer que ce sera le cas?

« Notre mission est de démocratiser l’éducation et de permettre aux enseignants de donner des conseils ou d’apporter plus de mentorat et de coaching », plaide Ekaterina Kochmar, cofondatrice de l’entreprise Korbit.

Les tuteurs intelligents pourraient-ils résoudre un des problèmes fondamentaux de notre système d’éducation – en laissant aux enseignants le temps de s’occuper davantage de l’aspect plus humain de l’éducation?

QUESTIONNEMENTS

Dans les collèges consultés, les questions éthiques semblent précéder les progrès techniques. Pour beaucoup d’acteurs, c’est le moment de voir les possibilités de l’intelligence artificielle (IA), mais aussi ses limites.

Les systèmes de tutorat intelligent, comme Korbit, pourraient suivre le rythme de chaque élève. Le tuteur IA pourrait adapter le matériel à ses besoins, après avoir évalué les lacunes en tenant compte de nombreux paramètres. Les mesures pourraient aussi permettre de fixer des objectifs d’apprentissage personnels. Mais s’arrêteront-ils là?

En avril, le Collège de Rosemont a organisé une semaine thématique « perspectives sur les enjeux de l’IA ». L’événement a engendré une murale collective sur les valeurs et les principes qui devraient guider le développement responsable de l’IA en éducation.

Pour le conseiller pédagogique de ce collège, Louis Normand, le tutorat avec un enseignant doit demeurer. « L’aspect humain est important, on le voit dans les sondages, c’est primordial pour les jeunes apprenants », dit-il. Selon lui, le métier de l’enseignant ne disparaîtra pas, mais sera aidé par l’IA.

« Chose certaine, les équipes doivent être impliquées dans l’intégration de l’IA au collégial, afin de faire des recommandations » – Louis Normand, conseiller pédagogique – Collège de Rosemont.

Au Collège de Maisonneuve, Emmanuelle Marceau, a instauré une journée sur l’intégration de l’IA. L’enseignante de philosophie et son équipe ont fait la tournée des enseignants dans le but de doter l’établissement d’une Charte sur l’IA pour mieux cerner les enjeux spécifiques en éducation.

« J’ai du mal à voir ce que donnerait la correction automatique dans un cours de philosophie. Par contre, je sais que l’IA est déjà utilisée en éducation physique », souligne-t-elle.

DÉVELOPPEMENT RESPONSABLE DE L’IA

La Déclaration de Montréal a posé 10 principes éthiques qui servent de cadre normatif pour l’IA responsable.

« En éducation, avance Marc-Antoine Dilhac, il faudra faire attention aux principes du bien-être, d’autonomie intellectuelle et morale, d’intimité (pas seulement de la vie privée), de solidarité (besoin de relations signifiantes), de diversité et d’équité. »

Il soulève au passage quelques questions sociales à considérer :

  • Le remplacement des humains est-il souhaitable ou non?
  • L’intrusion dans la vie privée et surtout dans l’intimité des élèves est-elle acceptable? (réf. aux émotions de l’apprenant éventuellement surveillé par l’IA, élimination des moments d’ennui, lorsqu’ils sont repérés par l’IA.)
  • Le maintien de relations avec les paires est-il assuré?
  • Qu’en est-il des biais sur le profilage et sur la diversité?
  • Dans le cas de la correction automatique (beau mirage s’il en est un), il faut se demander : qu’est-ce que ça implique dans la relation pédagogique pour l’enseignant? Qu’est-ce que ça implique, pour le jeune, d’être corrigé par une machine?

La possibilité pour un étudiant de se soustraire à la structure d’évaluation algorithmique et sa liberté d’orientation dans un parcours d’apprentissage sont à préserver selon le chercheur.

CONSEILS POUR LES ÉCOLES

L’entrée de systèmes d’intelligence artificielle (SIA) se fait donc frileusement en éducation, et pour cause :

« Les bénéfices de l’intelligence artificielle seront d’autant plus grands que les risques liés à son déploiement seront faibles. »
– Extrait du préambule de la Déclaration de Montréal

Pour reprendre les propos de Philippe Régnoux dans notre éditorial du 4 février 2020, la philosophie et le droit doivent s’inviter aux paillasses des laborantins.

Les écoles désireuses d’implanter des systèmes utilisant l’IA pourraient vouloir :

  1. Télécharger le Guide de délibération « Penser l’intelligence artificielle responsable »;
  2. Lire et signer la Déclaration de Montréal;
  3. Suivre les travaux et les activités de l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA), piloté par l’Université Laval depuis 2018.

À lire aussi : L’IA préoccupe les éthiciens du gouvernement.

— 

[ii] Gaudreau, Hélène et Marie-Michèle Lemieux (2020). L’intelligence artificielle en éducation : un aperçu des possibilités et des enjeux, Études et recherches, Québec, Conseil supérieur de l’éducation, 26 p.

Laisser une réponse

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *