Si les deepfakes sont surtout utilisés à des fins de diffamation ou de propagande, leur utilisation peut également être un atout pour les entreprises audiovisuelles. Est-ce vraiment souhaitable? Comment contrôler ses “vidéotox” dans une époque où il est de plus en plus difficile de discerner le vrai du faux?
Mais finalement, que sont les deepfakes, aussi appelés hypertrucages ou vidéotox? Ce néologisme vient de la contraction entre deep learning et fake. Et comme son nom l’indique, c’est un logiciel d’apprentissage profond qui permet de créer de fausses vidéos à partir d’images pré-existantes.
Le rôle de l’IA
En général cette intelligence artificielle est utilisée pour transposer le visage de quelqu’un sur le corps d’une autre personne. Ce type de logiciel est assez récent, la technologie a été mise au point en 2016 notamment grâce au logiciel “Voco” d’Adobe, premier programme d’hypertrucage audio capable de reproduire la voix humaine. L’année suivante, la BBC diffuse l’un des premiers deepfakes, développé par l’université de Washington. Celui-ci met en scène de manière bluffante un faux discours de Barack Obama.
Une technologie détournée
Rapidement, cette technologie a été détournée dans le but de nuire à la réputation de célébrités. À partir de 2017, de nombreuses fausses sextapes ont été publiées et partagées sur Reddit. La plupart des victimes sont des jeunes femmes comme Daisy Ridley, connue pour son rôle de Rey dans Star Wars, épisode VII dont la fausse sextape a été la plus commentée et partagée sur les réseaux. En janvier 2018 sort l’application Fakeapp qui met cette technologie à la portée de tous. De là, les deepfakes deviennent un outil de revenge porn mettant en scène des anonymes. Depuis, Reddit, Twitter, Pornhub et d’autres sites ont interdit la publication de ces vidéotox. En Angleterre, les auteurs de ces vidéos peuvent être poursuivis pour harcèlement. Mais ce sont des outils qui semblent bien fragiles face à l’océan de possibilités qu’offre internet.
D’autant plus que le deepfake peut désormais servir à des fins de propagandes politiques. Cela a été mise en évidence par le vidéaste Jordan Peele qui a produit une vidéotox où il met en scène un vrai-faux Barack Obama traitant Donald Trump d’idiot. Si cette vidéo a été conçue comme une mise en garde contre l’utilisation des deepfakes, elle a surtout révélé l’existence de telles images à des fins de propagande.
Mais alors que faire pour lutter contre ce nouvel outil de désinformation ? L’antidote pourrait venir du poison. En effet, de nombreux chercheurs en intelligence artificielle souhaitent développer des IA capables de reconnaître des vidéos manipulées. Des laboratoires informatiques planchent d’ailleurs sur le sujet. Par exemple, la DARPA, l’agence de recherche américaine de défense du Pentagone, finance des projets s’attaquant aux deepfakes, à hauteur de 68 millions. Ou encore Facebook organise un grand concours hackathon, le « Deepfake Detection Challenge », afin de faire émerger des logiciels de détection de fausses vidéos.
Certains experts en cybersécurité préfèreraient plutôt implémenter sur toutes les caméras une sorte de « tatouage électronique » qui permettrait de vérifier l’origine des contenus diffusés.
De la bonne utilisation du deepfake
En dehors de ces utilisations frauduleuses, le deepfake pourrait être utile à l’industrie de la vidéo publicitaire ou de formation. Par exemple, durant le confinement, le géant de la publicité WPP s’est servi de la technologie de la start-up Synthesia pour créer des vidéos de formation pour ces équipes en un temps record. La start-up a su décliner en une trentaine de langues différentes une vidéo déjà tournée. Ce qui a été un gain de temps et de coût énorme car normalement l’équipe aurait dû faire doubler la vidéo ou en tourner trente versions différentes. Néanmoins, cela représente un manque à gagner pour les professionnels de l’audiovisuel qui doivent déjà affronter une paupérisation de leur profession.
Enfin, cette technologie peut être un bon outil de divertissement et de créativité. Notamment au cinéma, on pourrait alors imaginer de nouveaux films avec d’anciens acteurs, comme un film où Charlie Chaplin donnerait la réplique à Marilyn Monroe par exemple. Ou encore pour créer des spots publicitaires amusants. En avril dernier, la chaine sportive ESPN a détourné des images d’un journal télévisé de 1998 pour promouvoir sa mini-série documentaire The Last Dance.