ChatGPT, la nouvelle frontière de l’intelligence artificielle

ChatGPT, la nouvelle frontière de l’intelligence artificielle

Chaque semaine, nos experts livrent leurs avis, leurs opinions sur des sujets, des thématiques qui les touchent, les interpellent. Aujourd’hui, c’est celui qui détient plus de trente ans d’expérience internationale dans le monde de l’intelligence artificielle, Roger Vandomme, qui vous propose son analyse de l’outil ChatGPT.

En ce début d’année 2023, que je vous souhaite excellente sur tous les plans, il est difficile d’échapper à la dernière coqueluche de l’intelligence artificielle (IA), sortie en décembre l’année dernière : ChatGPT !

Dans le cas fort improbable où vous feriez partie de cette minorité, ChatGPT (pour Generative Pre-training Transformer) est une IA conversationnelle développée par OpenAI sur l’une des plus performantes applications de traitement du langage naturel.

Je suis conscient du risque de redondance. Tellement d’articles ont déjà été écrits sur le sujet au cours de ces dernières semaines. Tant pis. Un de plus. Je suggère cependant de nous éloigner des aspects purement techniques et je vous propose une réflexion toute personnelle sur mon expérience de ces dernières semaines.

Un outil anxiogène

Tout d’abord, et je ne peux pas m’en empêcher, GPT, prononcé à la française, me fait l’associer à Geppetto, le créateur de Pinocchio, la marionnette qui devient humaine. Un signe ?

« Ce qui peut effectivement faire peur est l’amplitude du Mal possible, en raison de la puissance de l’outil. Car ChatGPT est à n’en pas douter un outil d’une puissance considérable. »

Première réaction. La phrase la plus souvent entendue dans mes discussions sur le sujet : « Ça fait peur ». Encore une fois, nous ne devons pas craindre l’IA. L’IA est une fabrication humaine. Ce qui est à craindre c’est l’humain, comme toujours. ChatGPT est un outil. Comme tous les outils, il peut être destiné au Bien comme au Mal, en fonction de son utilisateur.

Ce qui peut effectivement faire peur est l’amplitude du Mal possible, en raison de la puissance de l’outil. Car ChatGPT est à n’en pas douter un outil d’une puissance considérable.

L’expérience

Je lui ai tout d’abord demandé de se présenter : « Qui êtes-vous ? ». L’outil se présente comme un assistant, dénué d’émotion, de sensation et de capacité d’action sur le monde physique, dédié à répondre à des questions en simulant une conversation humaine (test de Turing ?). C’est clair.

Puis, j’ai vérifié s’il pouvait passer son bac de philo : « développer le sujet ‘L’existentialisme est-il un humanisme’ en 2000 mots. » Alors là, chapeau. Rien à dire. Impressionnant.

Allons plus loin. Question existentielle à la Bernard Pivot : « ChatGPT, et la mort dans tout ça ? ». Réponse bateau sur la définition de la mort. Décevant mais cohérent avec la définition des limites de l’outil.

En culture générale et connaissance particulières, pratiquement imbattable. Littérature, art, théologie, histoire, géographie, correction de code python ou démonstrations mathématiques… haut la main.

À vous de jouer !

Voici quelques suggestions pour vous amuser :

  • Acte 2 scène 3 du « Bourgeois gentilhomme » de Molière.
  • Comparer les styles de Cézanne et Manet.
  • Mahomet est-il allé à Jérusalem ?
  • Quelles sont les origines de la première guerre mondiale ? Essai en 2000 mots sur les origines de la première guerre mondiale (vous verrez la différence de profondeur).
  • Démonstration mathématique de la « Machine à support de vecteurs ».
  • Humour. Si l’outil est capable de générer des histoires (plus ou moins) drôles de manière quasi infinie, il semble cependant complètement dénué d’humour.
  • À la requête : « Open the pod bay doors, please » (ouvrez les portes du module, s’il vous plaît), il répond par un résumé du film « 2001, Odyssée de l’espace » et une explication de la scène. La même question posée à Alexa : «  I am sorry Dave, I am afraid I cannot do that. But I am not HAL and we are not in space » (Je suis  désolé, Dave, mais j’ai bien peur de ne pas pouvoir. Je ne suis pas HAL et nous ne sommes pas dans l’espace). Cela, bien entendu, ne fait que démontrer l’état d’esprit des programmeurs qui sont derrière l’outil.

OpenAI précise que l’outil n’a pas (encore ?) accès à Internet, ne peut donc pas aller y chercher des réponses, et doit se contenter de son propre savoir acquis. C’est un aspect majeur de cet outil, fondé sur l’apprentissage. Chaque réponse est assortie d’un pouce levé ou baissé, donnant la possibilité de commenter et éventuellement de corriger. C’est une très puissante opportunité d’apprentissage. Mais qui modère les corrections apportées, si elles sont prises en compte ? Quel est le corpus originel d’apprentissage ? Quel est l’influence des partenaires financiers d’OpenAI sur le corpus d’apprentissage ? Autant de questions qui restent pour le moment dans le flou.

En résumé, c’est donc un formidable outil, d’une puissance impressionnante, qui demande à être exploré en conscience de ses limites et de ses possibles biais. C’est un outil, donc, à vocation d’être utile. Les dangers de dérives sont cependant bien présents. Les étudiants qui s’en serviront pour écrire leurs essais ne sauront plus écrire par eux-mêmes. Comme les utilisateurs de calculette ne savent déjà plus calculer mentalement. L’humanité, dans son ensemble, devra trouver, comme toujours, la voie du juste milieu.

Crédit Image à la Une : Open Ai, Reuters Connect