[ANALYSE] Comment apprivoiser le monstre ChatGPT ou l’IA générative

[ANALYSE] Comment apprivoiser le monstre ChatGPT ou l’IA générative

Empreint de clarté, l’exposé sur les atouts de l’IA générative, présenté par Olivier Blais, co-fondateur de Moov-AI aux Rencontres de l’IA de la Chambre de commerce du Montréal métropolitain (CCMM), mérite qu’on s’y attarde.

L’apparition de ChatGPT dans nos vies relève d’un immense génie humain qui effraie, à tel point que les scientifiques le comparent à un T-Rex menaçant notre humanité. Alors que ChatGPT, n’est effectivement qu’un outil, son intelligence artificielle, dite générative, représente son cerveau. On peut apprivoiser l’outil, mais pour ce qui est de son cerveau, c’est un autre défi, car ce cerveau n’est pas limité physiquement par l’outil. En apprivoisant ChatGPT, on se rend vite compte que l’animal n’est pas malveillant. Cependant, son intelligence nous dépasse très vite, de manière même insoupçonnée. Cette intelligence générative a été révélée à la majeure partie de la population, à travers ChatGPT, mais elle se retrouve ailleurs aujourd’hui, dans d’autres outils et d’autres systèmes que ceux développés par OpenAI.

S’il sera éventuellement possible de réglementer l’utilisation d’outils comme ChatGPT, le développement de l’IA générative est, en revanche, plus difficile à circonscrire et aura besoin d’un encadrement législatif qui soit agile.

Facilitation dans la livraison des projets d’intelligence artificielle

S’adressant à un public aguerri, formé d’organisations développant ou acquérant de nouveaux systèmes intelligents, Olivier Blais explique comment l’IA générative se distingue de l’IA classique. Tâchons de bien saisir cette explication, très instructive, afin de la vulgariser pour tout domaine.

Dans un modèle d’IA classique, la gestion des données est une étape importante qui suppose, à son commencement, un entraînement du modèle sur des données historiques. Cet entraînement nécessite, la plupart du temps, un processus de labellisation (étiquetage) des données afin de leur donner la juste valeur sémantique ou mathématique. Cela consiste à permettre à un algorithme à appeler un chat, un chat. Le modèle peut ensuite produire une réponse (l’extrant, le produit), en analysant de nouvelles données. La réponse est alors composée, entre autres, de valeurs et de classes, comme une classification de races de chat.

Dans un modèle d’IA générative, la gestion des données est effectuée par le modèle d’IA générative, lui-même. Le modèle est automatiquement entraîné. Il procède, par son intelligence augmentée, à l’étiquetage des données. Ce qui enlève une étape manuelle de programmation. Cet auto-entraînement dépasse en vitesse l’entraînement d’une IA classique. Le modèle produit donc, instantanément (ou presque), une réponse, en répondant à une question (prompt). La réponse est alors enrichie, par rapport à la réponse de l’IA classique et se compose alors de textes bien construits et même de codes d’intelligence artificielle.

Optimisation des solutions d’IA générative

Olivier Blais mentionne ensuite les procédés permettant d’améliorer les modèles d’IA générative. Il est possible de développer son propre modèle d’IA générative qui devient alors un modèle privé. La base de connaissance est alors mieux structurée et se trouve parfois, alimentée par des documents privés (PDF, rapports). Le modèle devient alors plus robuste et la question (prompt) atteint un plus haut degré de précision. Le modèle infère alors une réponse, à laquelle s’ajoute un degré de validation.

Risques à éviter dans le développement de solutions d’IA générative

Ensuite, Olivier Blais expose les quatre risques principaux, qui sont, selon lui à éviter. Les risques fonctionnels (1) consistent à s’interroger sur les limites qualitatives de l’IA générative. Une fois ces limites dépassées, elle pourrait provoquer des biais d’interprétation, qu’on va jusqu’à appeler des hallucinations. Les risques sociétaux (2) qui imposent aux fabricants de solutions à se demander comment développer un modèle qui ne soit pas malsain pour la société. Les risques de sécurité des données (3) appellent à une analyse du transfert sécuritaire des données, lors de l’utilisation de la solution développée. Les risques juridiques (4) consistent à s’interroger quant à la valeur légale du produit fini.

Exploiter l’IA générative de façon responsable

Pour le co-fondateur de Moov-AI, la responsabilité des développeurs et des scientifiques consiste à éduquer les acteurs à une saine utilisation de l’IA générative. Ils doivent également veiller à ne répondre qu’à des problèmes précis et avec des solutions performantes. Ceci permettra de limiter les projets d’innovation ayant des objectifs mal définis. Leur responsabilité doit également s’étendre à la compréhension des risques associés à la solution qu’ils développent.

À travers cet exposé, très clair et profondément optimiste, Olivier Blais semble être un exemple à suivre en matière de vulgarisation scientifique pour permettre l’adoption de ces nouveaux outils et ce, grâce à une meilleure compréhension de leur fonctionnement.

Photo vedette de Jonathan Kemper; Unsplash