L’IA risque-t-elle de renforcer la désinformation ?

L’IA risque-t-elle de renforcer la désinformation ?

L’hypertrucage et la génération automatique de texte sont deux technologies conçues à partir de l’intelligence artificielle (IA) qui ont le potentiel de révolutionner les domaines créatifs. Cependant, leurs facilité d’accès et efficacité pourraient avoir des conséquences catastrophiques entre des mains malveillantes.

Faut-il craindre un affaiblissement de la démocratie, une perte de confiance en nos institutions, ainsi que de nouvelles atteintes à notre droit à la vie privée lorsqu’on parle de désinformation et d’IA?

Juristes et experts en apprentissage automatique se penchent désormais sérieusement sur ces questions.

C’est le cas de Vincent Bergeron, avocat associé au cabinet ROBIC, et de Nicolas Garneau, doctorant en informatique à l’Université Laval, qui ont offert une présentation sur l’IA et la désinformation dans le cadre du Rendez-vous en intelligence artificielle de Québec 2021, lundi dernier.

DE L’HYPERTRUCAGE À LA PRODUCTION DE TEXTE AUTOMATIQUE

Sans tomber dans le pessimisme, il y a fort à s’inquiéter d’après ceux-ci.

Prenons, le cas de l’hypertrucage, de son nom courant « Deepfake » (littéralement faux profond), est sans doute l’exemple de cette technologie des plus percutante.

Le terme est né des forums en ligne comme Reddit, sur lesquels des internautes se sont servis d’algorithmes pour remplacer le visage d’actrices pornographiques par celui de célébrités, mais aussi de femmes ordinaires, afin de ternir leur réputation.

Évidemment, de tels cas de figure font froid dans le dos et soulèvent des enjeux éthiques et juridiques importants.

« Auparavant, de tels effets spéciaux demandaient une certaine expertise, de l’argent et du temps à produire. Maintenant, la technologie Deepfake peut être accessible par logiciel “open source” et avec peu d’effort à l’utilisation » –Vincent Bergeron, avocat associé au cabinet ROBIC

Il en va de même pour les articles journalistiques frauduleux. Ceux-ci sont aisément produits par des logiciels tels que GPT-3. Cette création de la société américaine OpenAi, permet de créer automatiquement des textes avec quelques mots.

Avec une « liste d’épicerie » de quelques termes fréquemment utilisés par le complotiste québécois Alexis Cossette-Trudel dans ses diffusions sur Twitter, M. Garneau s’est prêté au jeu et a créé un court texte à saveur de théorie de complot.

Le paragraphe est cohérent et ne laisse en rien suspecter qu’il a été produit par une machine.

Toutefois, le résultat laisse encore à désirer en ce qui concerne la précision du message que l’on veut véhiculer. « C’est encore très difficile à automatiser, d’autant plus que les outils sont conçus en anglais », affirme le chercheur.

Cependant, les logiciels ne cessent de s’améliorer et les bases de données textuelles francophones sont de plus en plus bien garnies. Éventuellement, l’automatisation des fausses nouvelles deviendra un risque réel en sol québécois, croit-il.

APATHIE DE LA RÉALITÉ

Ainsi, les algorithmes peuvent désormais modifier les visages et les voix captés sur vidéo et produire des articles de désinformation. Lorsqu’elles sont mises à l’œuvre, ces techniques sont capables de flouer les experts en trucage et en IA, insiste Me Bergeron.

Ce dernier prend en exemple la vidéo virale « In Event of Moon Disaster », un coup de pub créé par le MIT Center for Advanced Virtuality afin de conscientiser le public aux dangers de la désinformation.

Sur les images, on voit et entend l’ancien président des États-Unis, Richard Nixon, s’adresser à la nation lors d’un discours supposément jamais diffusé, mais enregistré dans l’éventualité d’un accident empêchant les astronautes d’Apollo 11 de revenir sur Terre.

La supercherie est à s’y méprendre et on en vient à douter de toutes les images qui nous sont présentées.

En 2018, la République du Gabon diffusait une vidéo d’adresse à la nation du président Ali Bongo.

Les responsables de l’État voulait sans doute faire taire les rumeurs qui couraient que ce dernier était récemment mort des suites d’un AVC, mais le résultat fut contraire.

Plusieurs citoyens ont plutôt douté de la véracité de la vidéo, allant même jusqu’à dénoncer un hypertrucage. Une tentative de coup d’État s’en est suivie l’année suivante, en partie motivée par les théories du complot au sujet de la mort du président gabonais.

On voit facilement comment, même lorsqu’il n’y a pas d’effort de désinformation mis à l’œuvre, un sentiment d’« apathie de la réalité » causé par l’existence des hypertrucages risque de semer un doute envers les institutions et de faire basculer les gouvernements.

Si les domaines du divertissement, des arts et même du journalisme peuvent tirer bénéfices des algorithmes, que ce soit dans le processus créatif ou même détecter les fausses nouvelles, la vigilance reste de mise, insistent Me Bergeron et M. Garneau.