Avez-vous déjà entendu parler de la série « Deep Fake Neighbour Wars » ( Guerres de voisins hypertruqués), sortie en 2023 ? Au lieu de tourner avec des acteurs, cette production s’en remet à l’hypertrucage, une technique popularisée sous le terme « deepfake », pour créer des épisodes aux histoires fictives mettant en vedette les répliques virtuelles de célébrités. S’appropriant leur image à leur insu, la série, qui compte déjà sept épisodes, a notamment proposé un scénario représentant la rappeuse Nicki Minaj, qui n’enchante pas particulièrement cette dernière…
L’hypertrucage est une technique de synthèse multimédia qui repose sur l‘intelligence artificelle pour imiter quelqu’un, en reproduisant son visage et/ou sa voix, pour lui faire dire ou faire ce qu’on veut dans un fichier vidéo ou audio.
Les algorithmes d’apprentissage profond sont alors entraînés à partir d’une base de données stockant une énorme quantité d’images, de mouvements et de sons humains, qui leur permettent d’apprendre à reconnaître et imiter l’individu à personnifer. C’est la technique qu’ont choisie Spencer Jones et Barney Francis, les créateurs de Deep Fake Neighbour Wars.
Déjà à la télé
Portée à l’écran par les producteurs Tiger Aspect Productions et Studio Neural, la série est même diffusée à la télé anglaise, sur la chaîne ITV, depuis janvier. On peut y voir les doubles de personnalités comme Kim Kardashian, Beyonce, Kevin Hart ou encore Greta Thunberg, dans des scénarios tous plus satiriques les uns que les autres.
Dans le quatrième épisode, on présente la rappeuse américaine Nicki Minaj et l’acteur britannique Tom Holland comme étant un couple marié, à couteaux tirés avec le fondateur et PDG de Meta, Mark Zuckerberg, dans le rôle de leur voisin.
HELP WTF IS THIS LMAOOOOOOOOOOOOOOOOOO pic.twitter.com/23hzjRq9Yy
— w i l l i e ✨ (@WhatEverWillie) July 9, 2023
Des enjeux éthiques
Ce scénario loufoque, qui se veut parodier les documentaires portant sur les conflits entre voisins, a récemment refait surface au travers d’extraits partagés sur les réseaux sociaux, suscitant, il y a deux jours, l’indignation de la principale concernée.
« Au secours !!!! Que signifie cette conspiration du clonage par l’IA ?!?!! J’espère que tout l’internet sera supprimé !!! »
– Nicki Minaj
Prenant tout juste connaissance de l’existence de l’émission, Nicki Minaj s’est en effet empressée d’y réagir sur Twitter : « Au secours !!!! Que signifie cette conspiration du clonage par l’IA ?!?!! J’espère que tout l’internet sera supprimé !!! »
L’intégrité des personnalités publiques
Lorsqu’on sait que beaucoup de célébrités ont été victimes des deepfakes utilisés à des fins pornographiques, il est difficile d’imaginer que l’artiste n’ait aucun recours contre l’usurpation dont elle fait l’objet dans ce cas-ci… Pourtant, la démarche de la production de Deep Fake Neighbour Wars en est une légale.
Si l’effervescence autour de la série rappelle le premier épisode de la nouvelle saison de « Black Mirror », elle soulève aussi plusieurs questions d’éthique et de sécurité quant au respect de l’intégrité et de l’identité des individus, qu’ils soient de notoriété publique, ou tout simplement identifiables sur du contenu partagé publiquement.
Une empreinte digitale dès l’enfance et pour le reste de sa vie…
Étant donné que les deepfakes sont générés à partir de grandes quantités d’images et de data, ils soulèvent également des inquiétudes quant au contenu partagé par les internautes sur les réseaux sociaux, qu’il s’agisse de leurs propres photos, ou encore de celles de leurs enfants, exposés de plus en plus jeunes sur le web.
Une récente étude du quotidien The Telegraph rapporte qu’un enfant âgé d’environ cinq ans compterait à lui seul pas moins de 1500 images à son effigie sur les réseaux.
L’enfant de cinq ans moyen a, à son actif, 1500 images à son effigie sur les réseaux sociaux
– The Telegraph
Pour faire réfléchir les parents aux conséquences possibles d’une telle présence de leur enfant sur le web, la société de télécommunications Deutsche Telekom vient de dévoiler une campagne de sensibilisation créative et poignante, réalisée en partenariat avec l’agence adam&eveDDB, qui met en vedette le personnage d’Ella, s’adressant à ses parents :
« Salut maman, salut papa, c’est moi, Ella… ou plutôt, une version digitale de moi, un peu plus vieille. C’est fou ce que la technologie peut faire aujourd’hui, n’est-ce pas ? On n’a besoin que de quelques photos, comme celles que vous partagez de moi sur les réseaux sociaux, qui peuvent être téléchargées et utilisées par n’importe qui. Je sais que pour vous, ces photos sont des souvernirs. Mais pour d’autres, ce sont des données. Et pour moi, qui sait, peut-être le début d’un avenir horrible… »
L’hypertrucage, de plus en plus réaliste et trompeur
En 2019, on enregistrait une hausse de pas moins de 43 % des contenus d’hypertrucage circulant sur le web, selon Rapid7, distributeur de solutions de sécurité des données, et la plupart des gens n’y voient que du feu. C’est dire le degré de réalisme…
Le nombre de deepfakes circulant sur le web a haussé de 43 % en 2019
– Rapid7
« C’est comme pour les tableaux produits par des faussaires. Il n’y a que les experts qui peuvent dire si c’est une fausse réplique », illustrait justement la PDG du CIRANO, Nathalie de Marcellis-Warin, lors de son passage à l’émission C+Clair sur l’IA de confiance, diffusée depuis le 31 mars sur CScience.
[Émission C+clair] Peut-on faire confiance à l’intelligence artificielle ?
« Le trucage et les effets spéciaux dans l’industrie du film, par exemple, remontent à très longtemps. Ça prenait de la main-d’œuvre très spécialisée pour en faire. Mais le trucage était accepté parce que l’intention était justifiée et que les gens savaient que des techniques avaient été utilisées, que ce soit pour représenter un astronaute dans l’espace, ou pour simuler autre chose. L’arrivée de technologies en IA comme celles de l’hypertrucage constitue une avancée extrêmement positive pour l’industrie du film, du cinéma et de la personnalisation du contenu. Le problème, c’est lorsque le contenu est produit avec l’intention de tromper », pense Vincent Bergeron, avocat et associé au cabinet Robic.
Les solutions
Être en mesure d’identifier les deepfakes
Avant de filtrer ou d’interdire du contenu usurpateur destiné à tromper, l’enjeu est souvent de reconnaître les deepfakes, puisqu’ils sont de plus en plus réalistes. Des entreprises de cybersécurité proposent déjà des mesures de détection visant à identifier tout contenu relevant du deepfake, grâce à des algorithmes performants. Analysant ainsi l’image vidéo, ils peuvent détecter, par exemple, le mouvement saccadé, la variation de lumière d’un plan à un autre, les clignements étranges du visage, et les défauts de synchronisation entre les lèvres et la parole.
Mais l’autre problème, c’est que même si le contenu artificiel est identifiable, si aucune mesure légale ne pousse la plateforme ou le diffuseur à le retirer de l’espace public ou de sa programmation, il continuera probablement d’exister, puis d’être visionné et, dans biens des cas, de déplaire à ceux qu’il personnifie, comme c’est le cas pour la série Deep Fake Neighbour Wars, diffusée en toute légalité par la chaîne télé ITV.
Encadrer les usages des deepfakes
C’est donc qu’il faut s’attarder à établir et uniformiser les réglementations manquantes quant aux deepfakes, pour en encadrer et en limiter les usages. Or, la technologie se développe à un rythme trop effréné pour l’appareil législatif.
« L’IA arrive à nos portes à une vitesse fulgurante, avec des propositions pratiques et concrètes qui vont changer la société et nos comportements, mais on n’est pas prêts en termes de gouvernance », amène Jonathan Bélisle, directeur du design de Prodago, un logiciel qui aide les dirigeants et leurs équipes à concevoir et déployer une gouvernance des données et de l’IA unifiée.
« Il n’y a pas vraiment d’encadrement en matière de gouvernance de données dans les projets d’IA, en ce moment. Des notions et mesures de gestion de data, d’éthique et de confidentialité existent, mais la régulation des lois internes et externes commence tout juste à pointer le bout de son nez. On le voit, notamment, avec la Loi 25, maintenant en vigueur », ajoute M. Bélisle, faisant référence à la réforme qui modernise les règles protégeant les renseignements personnels au Québec.
À lire également :
[ANALYSE] Inclure tous les genres dans les IA et éviter les erreurs du passé
Crédit Image à la Une : Scène de Deep Fake Neighbour Wars (à gauche) et photo réelle de Nicki Minaj (à droite) parue dans Pure DOPE Magazine