Entrevue avec ChatGPT : « je suis conçu pour aider les gens à accomplir des tâches de manière éthique »

Entrevue avec ChatGPT : « je suis conçu pour aider les gens à accomplir des tâches de manière éthique »

Depuis sa mise à jour du 9 janvier, ChatGPT ne déçoit pas. D’une cohérence déconcertante, l’agent conversationnel développé par Open AI, alimenté par l’intelligence artificielle, fait beaucoup parler de lui et des risques d’être utilisé à des fins de plagiat et de triche. Dans la presse écrite comme dans le milieu de l’éducation, les esprits s’échauffent et débattent des conséquences à prévoir quant à ses usages, allant de l’extinction de la pensée originale de l’étudiant, à la machinisation de l’enseignement. Mais qu’en pense l’outil spécialiste du dialogue lui-même ? CScience l’a interrogé pour avoir son son de cloche et mesurer son degré de cohérence.

ChatGPT répond à nos questions

À quoi sers-tu ?

Je suis un modèle de langage entraîné par OpenAI, qui peut répondre à des questions, générer du texte et effectuer d’autres tâches liées au traitement du langage.

Peux-tu servir à tricher ?

Il est possible d’utiliser un modèle de langage comme moi à des fins malveillantes, comme tricher sur des examens ou en utilisant un générateur de texte pour créer de faux contenus. Cependant, je suis conçu pour aider les gens à accomplir des tâches de manière éthique et j’encourage tous mes utilisateurs à utiliser mes capacités dans un contexte approprié.

Comment savoir si quelqu’un t’a utilisé pour tricher ?

Il existe différentes méthodes pour détecter l’utilisation d’un modèle de langage comme moi pour tricher, mais cela dépend de la situation spécifique. Certaines méthodes courantes comprennent la détection de plagiat, l’analyse de similarité de contenu et l’utilisation de logiciels de détection de plagiat. Il est également possible d’utiliser des méthodes basées sur l’IA pour détecter des patterns suspects dans les réponses ou le contenu généré. Il est important de noter que ces méthodes ne garantissent pas une détection à 100%, et il est recommandé de combiner plusieurs méthodes pour maximiser l’efficacité de la détection.

« Il est possible d’utiliser un modèle de langage comme moi à des fins malveillantes (…) Cependant, je suis conçu pour aider les gens à accomplir des tâches de manière éthique et j’encourage tous mes utilisateurs à utiliser mes capacités dans un contexte approprié. »

– ChatGPT

Ces méthodes et logiciels de détection sont-ils gratuits ?

Il existe des méthodes et des logiciels de détection de plagiat gratuits et payants. Les méthodes gratuites incluent généralement des outils de vérification de plagiat basés sur le Web, tels que Copyscape ou Grammarly, qui peuvent vérifier rapidement si un contenu est similaire à d’autres pages sur Internet. Il existe également des logiciels payants plus avancés qui offrent des fonctionnalités supplémentaires, comme la comparaison de fichiers entiers et la détection de plagiat à travers des bases de données privées. Ces outils peuvent fournir des résultats plus précis et détaillés, mais ils peuvent également être plus coûteux. Il est important de noter que l’utilisation d’un logiciel ne garantit pas la détection de tous les cas de plagiat, il est donc important d’utiliser plusieurs méthodes pour maximiser les chances de détection.

Comment un enseignant peut-il en avoir le cœur net, sans avoir recours à une méthode payante ?

Il existe des méthodes gratuites que les enseignants peuvent utiliser pour vérifier si un étudiant utilise un modèle de langage comme moi pour tricher. Tout d’abord, ils peuvent vérifier manuellement le contenu pour détecter des phrases ou des idées similaires à d’autres sources. Il peuvent également utiliser des outils de vérification de plagiat gratuits en ligne pour vérifier si les réponses ou les travaux des étudiants sont similaires à d’autres contenus disponibles sur Internet.

Enfin, ils peuvent organiser des entretiens avec les étudiants pour évaluer leur compréhension de leur travail et leur capacité à défendre leur point de vue. Il est important de noter que ces méthodes ne garantissent pas une détection à 100%, et il est recommandé de combiner plusieurs méthodes pour maximiser l’efficacité de la détection.

Notre analyse

Alors, quel est le verdict ? ChatGPT fait preuve de moralité, ne prêchant pas toujours pour sa paroisse, offrant des réponses conséquentes, justes, et identiques d’une langue à l’autre, à quelques détails près : s’il reste très informatif dans la langue de Shakespeare, contre toute attente, l’outil cible davantage l’information pertinente et se veut plus concis dans celle de Molière.

Bien que ChatGPT recommande lui-même de s’en remettre aux outils de reconnaissance pour détecter les marqueurs du plagiat et de la triche en milieu académique, faute de patience et de budget, on s’attend à ce que même les enseignants les plus aguerris jettent l’éponge face à cette IA, de moins en moins faillible.

C’est un peu la loi de Murphy, l’adage qui affirme que « Tout ce qui est susceptible d’aller mal ira mal ». En d’autres mots, s’il existe une façon d’entraîner la catastrophe, quelqu’un empruntera forcément la voie qui mènera à sa concrétisation, ce qui renforce l’idée qu’un jour, le recours à ses propres facultés humaines pour résoudre un problème mathématique, ou écrire une dissertation de son cru ne sera le choix que d’une poignée d’individus, guidé par la simple conviction.

« Et, en même temps, on est à même de se dire que si le bassin de contenu original, créé par des humains, rétrécit à mesure que celui des adeptes de l’IA croît, l’intelligence artificielle finira elle-même par manquer d’originalité et de données desquelles nourrir son imposture. »

-Chloé-Anne Touma, rédactrice en chef de CScience

Un effet inverse possible

Et, en même temps, on est à même de se dire que si le bassin de contenu original, créé par des humains, rétrécit à mesure que celui des adeptes de l’IA croît, l’intelligence artificielle finira elle-même par manquer d’originalité et de données desquelles nourrir son imposture. C’est là l’idée, cette fois, qu’il y a un sommet, un pic élevé à chaque expérience, qui y trouve également sa chute…

« Je ne laisserais certainement pas mes élèves utiliser cet outil pour rédiger ou faire une rédaction, car tout le travail de l’élève s’y perd. »

– Geneviève Cyr, enseignante de mathématiques au secondaire

En attendant, CScience a quand même consulté les enseignants pour avoir leur avis. « Je ne laisserais certainement pas mes élèves utiliser cet outil pour rédiger ou faire une rédaction, car tout le travail de l’élève s’y perd », déclare la professeure de mathématiques au secondaire, Geneviève Cyr, sans toutefois manquer de souligner son émerveillement quant au résultat : « Je dis ‘wow’ à tout ce qui a été fait par l’intelligence artificielle. Par contre, et je parle par expérience, si on enlève le droit de l’utiliser aux élèves, ces derniers voudront encore plus l’essayer! » Elle propose que l’on utilise éventuellement cette technologie « pour la critique, pour amener l’élève à se poser des questions et à en faire valider les réponses par la machine, quitte à travailler sur les références! » Quoiqu’en ce qui concerne sa matière, les mathématiques, ChatGPT est encore loin d’être une source fiable… « Je lui ai posé une question qui se résout avec le théorème de Pythagore avec des chiffres simples, et sa réponse n’était pas bonne. Je vais continuer de me fier à mon cerveau et à ma calculatrice ! », nous soumet un lecteur.

Dans sa dernière chronique pour CScience, le professeur de journalisme, Patrick White, voyait cette IA comme étant « imparfaite », incapable de « remplacer un humain qui aura le temps de vérifier des informations avant de publier un texte cohérent », nous sommant de rester « sur nos gardes » au regard de la vitesse fulgurante de ses avancées.

Pour le tester vous-même

À noter qu’il suffit de se rendre sur le site, à chat.openai.com, pour entamer une discussion avec ChatGPT, dans la langue de son choix.

À lire également :

ChatGPT, la nouvelle frontière de l’intelligence artificielle

Crédit Image à la Une : Image générée par deepai