Les producteurs de la série Black Mirror préparaient son retour fracassant sur Netflix pour une sixième saison. Offerts depuis le 15 juin sur la plateforme de diffusion en continu, les nouveaux épisodes ne déçoivent pas. Dès la première histoire, qui met en vedette les actrices Annie Murphy et Salma Hayek, la dystopie fait plusieurs clins d’œil aux récentes avancées technologiques qui ont bouleversé notre quotidien de la dernière année, et prédit les conséquences possibles d’une révolution de l’industrie du divertissement et de ses pratiques commerciales. Avis aux « techno-anxieux » : ça donne froid dans le dos, et surtout parce que ça n’est, pour une fois, pas si loin de la réalité !
La parodie de votre vie, en diffusion continue…
Imaginez le scénario : vous passez une soirée tranquille en amoureux, et décidez de voir ce qu’il y a à regarder sur votre plateforme de vidéo sur demande favorite. En faisant défiler les contenus proposés, une émission attire votre attention : la femme ou l’homme sur l’image de couverture vous ressemble, a votre style vestimentaire et votre coiffure. Quoi d’autre, vous reconnaissez votre prénom dans le titre de l’émission. Vous figez. Est-ce une production sur votre vie ?
Après grande insistance de la part de votre partenaire, épris(e) comme vous de curiosité, vous acceptez de lancer la lecture. Surprise ! L’émission reflète scène pour scène, et de manière caricaturale, les situations de votre quotidien : votre journée au travail, votre rendez-vous chez le psy, et même les textos échangés avec votre ex dans le dos de votre actuelle moitié.
Quoique vous fassiez, quoique vous viviez, ce sera le contenu du prochain épisode de la série non désirée portant sur votre vie parodiée, et tout cela parce que vous n’avez pas lu la page 58 des termes et conditions de l’interminable contrat qui vous lie à la plateforme de streaming. En vous y abonnant, et en cochant la case « Accepter », vous avez en effet permis à ce service de vidéo sur demande d’utiliser votre nom et votre vie pour créer une émission sur vous !
Une IA qui vous écoute, vous regarde, vous scénarise et vous imite
Reposant sur un système d’algorithmes et d’hypertrucage (communément appelé « deepfake ») relevant de l’intelligence artificielle, et sur un ordinateur quantique pour traiter l’énorme quantité de données qui vous concernent, stockées sur les serveurs de l’entreprise, la plateforme de diffusion en continu adapte et parodie votre vie à l’écran, avec des acteurs connus pour y incarner les rôles principaux, et ce, sans que ces derniers n’aient même eu à jouer dedans; la production utilise plutôt des deepfakes, des répliques d’acteurs qui ont cédé les droits d’utilisation de leur image, sans en peser véritablement les conséquences…
Comme les acteurs dépossédés du contrôle de leur image, vous consultez un avocat, qui vous apprend que vous n’avez, selon lui, aucun recours contre la plateforme. Vous auriez dû lire l’intégralité des termes et conditions du contrat avant de le signer, car ce dernier suffirait à garantir toutes les autorisations requises par la production pour parodier votre vie, et pervertir, par la même occasion, l’image de l’acteur ou de l’actrice personnifié(e) pour jouer votre rôle.
De quoi s’inquiéter
Ce scénario terrifiant, qui a été imaginé pour le premier épisode de Black Mirror, n’est pas si loufoque que ça, à bien y penser…
L’autorisation et le partage involontaires
Notre expert Stéphane Ricoul, comme en atteste sa chronique d’octobre pour CScience, l’a vite compris : « L’expression bien connue de tous qui dit que ‘Si c’est gratuit, c’est que c’est vous le produit’, appartient désormais au siècle passé. Aujourd’hui, nous devons avoir conscience que si c’est gratuit, c’est que ce sont vos données comportementales qui sont le produit, pas vous », suggérait-il, faisant notamment référence à la panoplie d’applications que nous téléchargeons sur nos appareils mobiles, sans vraiment faire attention à ce que l’on accepte de partager à leurs développeurs et propriétaires.
Mais les entreprises qui auraient l’intention de se servir de notre vie privée, sans scrupule, pour divertir, pourraient-elles avoir les moyens de leurs ambitions ?
L’hypertrucage, de plus en plus réaliste et trompeur
En ce qui a trait à la création de personnages réalistes et animés à l’image d’individus, nous savons que la méthode d’hypertrucage par l’IA a déjà permis la création de répliques tout à fait crédibles, au visage calqué sur celui de figures politiques et autres personnalités connues. Dans ces représentations vidéo, on peut faire dire n’importe quoi à n’importe qui.
« L’arrivée de technologies en IA comme celles de l’hypertrucage constitue une avancée extrêmement positive pour l’industrie du film, du cinéma et de la personnalisation du contenu. Le problème, c’est lorsque le contenu est produit avec l’intention de tromper. »
– Vincent Bergeron, avocat et associé au cabinet Robic
En 2019, on enregistrait une hausse de pas moins de 43 % des contenus d’hypertrucage circulant sur le web, selon Rapid7, distributeur de solutions de sécurité des données, et la plupart des gens n’y voient que du feu. C’est dire le degré de réalisme…
« C’est comme pour les tableaux produits par des faussaires. Il n’y a que les experts qui peuvent dire si c’est une fausse réplique », illustrait justement la PDG du CIRANO, Nathalie de Marcellis-Warin, lors de son passage à l’émission C+Clair sur l’IA de confiance, diffusée depuis le 31 mars sur CScience.
[Émission C+clair] Peut-on faire confiance à l’intelligence artificielle ?
« Le trucage et les effets spéciaux dans l’industrie du film, par exemple, remontent à très longtemps. Ça prenait de la main-d’œuvre très spécialisée pour en faire. Mais le trucage était accepté parce que l’intention était justifiée et que les gens savaient que des techniques avaient été utilisées, que ce soit pour représenter un astronaute dans l’espace, ou pour simuler autre chose. L’arrivée de technologies en IA comme celles de l’hypertrucage constitue une avancée extrêmement positive pour l’industrie du film, du cinéma et de la personnalisation du contenu. Le problème, c’est lorsque le contenu est produit avec l’intention de tromper », pense Vincent Bergeron, avocat et associé au cabinet Robic.
« Les deepfakes me font peur, particulièrement pour les adolescents, parce que ce genre de représentation et d’usurpation peut affecter un garçon et une fille de manière différente. »
– Kanica Saphan, fondatrice du Sofa Sexologique
L’un des volets du divertissement le plus dur à baliser est sans doute celui de la pornographie. Avec l’avènement de l’hypertrucage, de nombreuses stars féminines se sont d’ailleurs retrouvées « en vedette » d’images ou vidéos à caractère sexuel, en vue d’en faire du contenu pornographique. La technique est aussi employée à des fins de « revenge porn » ou pornodivulgation, soit pour la production de contenu sexuellement explicite partagé publiquement, sans le consentement des personnes visibles ou représentées.
« Les deepfakes me font peur, particulièrement pour les adolescents, parce que ce genre de représentation et d’usurpation peut affecter un garçon et une fille de manière différente. Les répercussions sociales ne seront pas les mêmes pour l’un et l’autre, puisque l’on juge beaucoup plus durement la sexualité féminine », amène en entrevue Kanica Saphan, fondatrice du cabinet de sexologues Le Sofa Sexologique et experte en thérapie de couple, dénonçant le « double-standard sexuel » qui perdure.
Heureusement, les entreprises de cybersécurité proposent des mesures de détection en vue de filtrer ou d’identifier tout contenu relevant du deepfake, grâce à des algorithmes de détection performants. Analysant ainsi l’image vidéo, ces algorithmes sont à même de détecter, par exemple, le mouvement saccadé, la variation de lumière d’un plan à un autre, les clignements étranges du visage, et les défauts de synchronisation entre les lèvres et la parole.
La puissance de l’informatique quantique
Mais tel qu’anticipé par les auteurs de l’épisode 1 de la nouvelle saison de Black Mirror, avec les moyens dont nous disposons actuellement en informatique quantique, ce genre d’innovation pourrait connaître un élan sans précédent. Rappelons qu’en septembre, le Québec aura son propre superordinateur quantique, dont la puissance, reconnue par tous les experts, promet de révolutionner plusieurs secteurs d’activité.
La promesse de l’informatique quantique : ce qu’il faut en comprendre
Encadrer l’IA
a) Le manque de stratégies de gouvernance de données
Si, pour beaucoup de monde, le commerce et l’innovation en intelligence artificielle entretiennent des liaisons dangereuses, c’est notamment parce que les technologies progressent de façon beaucoup plus rapide que l’environnement dans lequel elles évoluent, sans le contrôle requis pour garantir la sécurité de leurs usages dans une perspective d’avenir. « L’IA arrive à nos portes à une vitesse fulgurante, avec des propositions pratiques et concrètes qui vont changer la société et nos comportements, mais on n’est pas prêts en termes de gouvernance », amenait Jonathan Bélisle, directeur du design chez Prodago, en entrevue avec CScience il y a quelques mois.
Qu’est-ce que la gouvernance de données ? C’est un ensemble de processus, de politiques et de normes qui garantissent une utilisation efficace et efficiente des données. Une bonne stratégie de gouvernance s’impose lorsqu’on collecte de grandes quantités de données, comme c’est le cas en IA, notamment, pour mieux gérer les risques et réduire les coûts du point de vue commercial, mais aussi pour se montrer digne de confiance auprès du public.
« Il n’y a pas vraiment d’encadrement en matière de gouvernance de données dans les projets d’IA, en ce moment. Des notions et mesures de gestion de data, d’éthique et de confidentialité existent, mais la régulation des lois internes et externes commence tout juste à pointer le bout de son nez. On le voit, notamment, avec la Loi 25, maintenant en vigueur », ajoutait M. Bélisle, faisant référence à la réforme qui modernise les règles protégeant les renseignements personnels au Québec.
b) Une solution
Comment remédier à ce retard ? C’est la question qui a poussé l’équipe de Prodago à développer un logiciel qui aide les dirigeants et leurs équipes à concevoir et déployer une gouvernance des données et de l’IA unifiée.
« Notre équipe a systématisé un nouveau langage, pour doter les entreprises d’une méthode simple et accessible afin d’opérationnaliser la gouvernance des données », relate M. Bélisle, également connu pour son œuvre en tant que cofondateur de Stories of a Near Future, qui tisse des liens entre l’intelligence artificielle et l’industrie des arts et du divertissement.
c) Voir l’IA comme une alliée de la créativité humaine
Mais selon M. Bélisle, au lieu d’être diabolisée, l’IA devrait plutôt être considérée comme un moyen de propulser notre créativité.
« Peut-être que l’IA, en enlevant le poids de la production et de l’exécution, va nous doter d’outils qui vont permettre de faire du storytelling, faire gagner du temps aux auteurs et créateurs, qui pourront alors se concentrer sur leurs idées. Imaginons alors que l’IA nous permette de raconter de très bonnes histoires, qu’elle permette à un enfant de huit ans de créer un jeu vidéo qui va changer le monde, rien qu’en lançant oralement ses idées », suggère M. Bélisle.
Au final, que l’on ait peur de l’IA, que l’on soit admiratif de ses avancées, ou que l’on en soit un fervent défenseur, un principe fait l’unanimité : un cadre normatif des plus balisés et clairs doit s’imposer à tout projet d’innovation en matière d’intelligence artificielle. Hélas, la demande de moratoire sur l’IA, signée en mars par plusieurs sommités de l’écosystème, dont Yoshua Bengio, ne témoigne que d’une volonté tardive de faire de ce principe une priorité.
« Pourtant, les auteurs de science-fiction nous ont offert depuis des décennies des projections catastrophes des avancées technologiques de l’IA. Pourquoi ne pas les avoir écoutés ? Pourquoi ne pas avoir anticipé ces impacts et avoir mis en œuvre les régulations nécessaires plus tôt ? », soulevait avec justesse notre autre experte et chroniqueuse, Isabelle Lacroix, dans sa récente chronique sur l’importance d’ « anticiper les impacts sociétaux d’une nouvelle technologie avant son intégration en société ».
Anticiper les impacts sociétaux d’une nouvelle technologie avant son intégration en société
Crédit Image à la Une : Netflix / Politique d’usage équitable