Hypertrucages et Deepfakes pullulent sur les sites porno

Hypertrucages et Deepfakes pullulent sur les sites porno

Dans le cinéma pornographique, la technique du deepfake se peaufine. Un homme a été arrêté au Japon, la semaine dernière, parce qu’il avait créé avec l’IA un deepfake ou hypertrucage sur les parties génitales des acteurs et non plus sur leur visage, comme cela se faisait habituellement.

L’homme a utilisé un outil baptisé TecoGAN qui permet d’obtenir une résolution poussée des images floutées, pixellisées et les a ensuite traitées à l’aide de l’intelligence artificielle (IA). Son objectif : faire apparaître les sections floues.

Le contexte est le suivant : au Japon, les films pornographiques sont acceptés à la condition que n’apparaissent pas les parties génitales des acteurs. L’auteur des faits a donc été arrêté pour violation des lois sur le droit d’auteur et pour obscénité. Selon le média NHK, l’homme aurait admis avoir vendu plus de 10 000 vidéos.

De fait, relève le média japonais, il est passible d’une peine pouvant aller jusqu’à deux ans de prison et d’une amende de 2 500 000 yens, soit 2723,46 dollars canadiens.  L’homme a plaidé coupable pour avoir enfreint le droit d’auteur et affiché des images obscènes.

QU’EST-CE QUE LE DEEPFAKE OU HYPERTRUCAGE ?

Le terme « deepfake » vient de la technologie sous-jacente « deep learning », qui est une forme d’IA. Certains deepfakes sont élaborés à partir d’images de personnes réelles, d’autres utilisent des visages créés de toutes pièces.

Chacun se souvient d’une vidéo, publiée en 2017, par l’Université de Washington, dans laquelle des termes injurieux à l’égard de Donald Trump avaient été mis dans la bouche de Barack Obama…

Elle avait été visionnée près de 3 millions de fois. Pourtant, il s’agissait d’un faux… Le caractère viral de ces vidéos truquées se décuple lorsqu’il s’agit de vidéos à caractère sexuel ou pornographique mettant en scène des personnalités connues.

capture d’écran / Crédit photo : Reddit – Deepfake

Ainsi, un utilisateur anonyme du site Reddit avait mis en ligne en 2018, sous le pseudonyme « deepfakes », des vidéos où les images des visages des actrices Gal Gadot, Scarlett Johansson et de la chanteuse Taylor Swift étaient “montées” sur des corps d’actrices de films pornographiques.

Reddit avait ensuite interdit la mise en ligne des « images ou des vidéos d’une tierce personne dans le but spécifique de simuler un contenu explicite ou bien de solliciter une prestation pornographique de “lookalike”». Néanmoins, pour avoir vérifié, voir la capture d’écran ci-contre, ces règles ne semblent pas parfaitement appliquées.

Dans une interview au quotidien The Washington Post, Scarlett Johansson avait alors dit que se défendre contre ces vidéos « est une poursuite inutile, légalement, principalement
parce qu’Internet est un trou noir ».

« Je pense qu’il appartient à un individu de se battre pour son image, de réclamer des dommages et intérêts. » – Scarlett Johansson, actrice, victime de deepfakes pornographiques en 2018

Le droit d’auteur ou le droit à l’image peuvent-ils alors venir en aide aux personnes dont l’image a été utilisée pour créer des deepfakes ?

En marge d’une conférence organisée sur le sujet en avril 2001, Me Vincent Bergeron du cabinet Robic avait indiqué : « Les impacts que ça peut avoir touchent une panoplie de domaines… Autant les avocats en droit de la personne que du côté des avocats en droit du divertissement, ou encore du côté des avocats en droit de la preuve. » Bref, il est possible d’obtenir justice mais cela relève vraisemblablement du parcours du combattant…

LE DROIT CANADIEN FACE À L’HYPERTRUCAGE

Un document publié, en 2019, par la Division de l’économie, des ressources et des affaires internationales de la Bibliothèque du Parlement et intitulé « Hypertrucage : Que peut-on faire à propos du contenu audio et vidéo de synthèse ? » se penchant sur les dégâts potentiels que pouvaient occasionner ces technologies dans la vie politique et électorale a constaté des avancées juridiques.

« Les modifications apportées à la Loi électorale du Canada [en décembre 2018] qui ont permis d’ajouter les infractions d’usurpation de qualité et de publications trompeuses de même que la mise en œuvre du Protocole public en cas d’incident électoral majeur et la création du groupe de travail sur les menaces en matière de sécurité et de renseignement visant les élections pourraient partiellement contrer la menace. (…) Il reste à savoir si ces mesures seront suffisantes pour atténuer les répercussions du contenu vidéo ou audio hypertruqué. »

Et, il serait aussi intéressant de savoir si elles sortiront du champ électoral pour s’appliquer à tous les deepfakes même les plus sulfureux.

Crédits : Photo : Pexel / Olya Prutskova