ChatGPT et Lensa : l’intelligence artificielle fait de grandes avancées, mais ça fait peur…

ChatGPT et Lensa : l’intelligence artificielle fait de grandes avancées, mais ça fait peur…

ChatGPT est le concept fou de fin d’année, un peu partout dans le monde. On parle ici d’un système de robot conversationnel, capable de répondre à diverses questions. Ça a été développé par OpenAI, un leader en matière de IA.

Comme l’a écrit l’Agence France-Presse, ses «performances impressionnantes relancent le débat sur les risques liés aux technologies d’intelligence artificielle».

ChatGPT génère du texte automatiquement à partir de questions posées par des internautes.

Une IA faillible

J’ai essayé pour ma part, avec des questions simples comme « Qui est premier ministre du Québec? ». J’y ai obtenu une réponse parfaite. Lorsque j’ai voulu aller plus loin en demandant des précisions sur la loi 96 sur la promotion du français, votée par le gouvernement du Québec, l’outil ChatGPT m’a généré un texte intelligent… mais sur une autre loi 96 votée au plan fédéral canadien il y a quelques années.

« (…) cette IA est imparfaite, et ne peut remplacer un humain qui aura le temps de vérifier des informations avant de publier un texte cohérent. »

Déjà là, cette IA est imparfaite, et ne peut remplacer un humain qui aura le temps de vérifier des informations avant de publier un texte cohérent. ZDNet a déjà écrit à ce sujet.

C’est pareil pour les traductions avancées d’articles journalistiques, comme avec des éléments premium de Google Translation, l’agence de presse nationale La Presse canadienne (PC), et sa contrepartie The Canadian Press (CP), qui utilisent un outil nommé Ultrad pour traduire des dépêches anglophones de l’Associated Press (AP) et de CP. Le résultat en est bon, mais un journaliste doit repasser chaque fois sur chaque traduction, débosser l’article (en France on dit bâtonner une dépêche) et, ensuite, transmettre le texte sur le fil de presse de La Presse canadienne. Rien n’est parfait. Et surtout pas en français.

Les dangers

Pour ChatGPT, l’un des dangers, comme l’a expliqué l’AFP, est «une sorte de machine omnisciente, capable d’expliquer des concepts scientifiques, d’écrire une scène de théâtre, de rédiger une dissertation universitaire… ou bien des lignes de code informatique parfaitement fonctionnelles ».

Rédiger une dissertation universitaire à la place d’un étudiant, c’est problématique sur le plan éthique, et serait considéré comme du plagiat dans les universités. Donc, il y a un danger. Comment détecter le vrai du faux ? Le texte écrit par un humain ou non ?

Les avancées des autres programmes d’IA comme GPT-3 et GPT-4 nous laissent entrevoir de grandes avancées également en matière de création de contenus. Surtout en anglais, évidemment.

Là encore, l’IA impressionne mais on ressent un malaise avec la technologie. Au plan des programmes d’IA qui gère et créent des images à partir de diverses photos, les dangers planent partout. La semaine dernière, l’application de génération de photos Lensa AI crée des nus de personnes tirées de photos d’enfance. Ceci est un cauchemar. Autant pour les citoyens, les artistes que pour les éditeurs photos professionnels de médias, d’agences et d’entreprises.

La création artistique sera fortement touchée par l’IA et le respect des droits d’auteurs deviendra un enjeu plus majeur que jamais. DALL-E et d’autres programmes comme Midjourney sont fort impressionnants déjà en matière de génération d’images.

En cette fin de l’année 2022, il est somme toute fort inquiétant sur le plan éthique de voir les usages préjudiciables de cette technologie, l’IA, tout en demeurant optimiste quant à ses usages positifs pour la société et le monde. Soyons sur nos gardes, les gouvernements en particulier puisqu’ils devront légiférer pour éviter des dérapages. À bon entendeur, salut!

Crédit Image à la Une : Aideal Hwa, Unsplash