La récente percée de l’intelligence artificielle (IA) dans les domaines de la génération de contenu et de la traduction automatique a suscité un engouement sans précédent pour cette technologie. Elle a fait trembler (un peu) Google selon les médias, elle a permis à Microsoft d’y voir un renouveau à son moteur de recherche Bing, elle nous a fait nous questionner quant au modèle d’éducation que nous appliquons dans nos écoles depuis des siècles, mais elle pourrait aussi nous faire craindre le pire pour l’avenir de nos démocraties.
À bien y penser, sachant que l’IA, y compris son plus célèbre porte-parole actuellement, j’ai nommé ChatGPT, est un outil, et que son utilisation dépend de la personne ou de l’entité qui l’utilise, la porte est grande ouverte à une utilisation abusive ou malveillante afin d’influencer l’opinion publique. Une sorte de Donald Trump sur les stéroïdes, qui serait la marionnette de qui veut.
Nos démocraties menacées
Comme le souligne l’article de The Markup, l’IA peut être utilisée pour propager de fausses informations et des théories du complot, pouvant ainsi affecter la confiance des citoyens dans les institutions démocratiques. Si, en soi, ChatGPT n’est pas une menace pour les démocraties, il reste que certains gouvernements, certains partis politiques et autres groupes d’intérêt peuvent l’utiliser à des fins de ciblage des électeurs avec des messages personnalisés, créant ainsi des bulles de filtre, et exacerbant les divisions politiques.
« ChatGPT n’est pas le seul moyen d’influencer les citoyens (…) mais on parle ici d’une toute autre échelle, sans frontière, et massivement adoptée. Nos gouvernements doivent réagir promptement et mettre en place des mécanismes de surveillance et de réglementation pour empêcher les abus et bloquer tout risque de dérive. »
Vous me direz que ChatGPT n’est pas le seul moyen d’influencer les citoyens et que les pratiques de désinformation et de manipulation ont existé bien avant l’émergence de l’IA, ce à quoi je répondrai par l’affirmative. Mais on parle ici d’une toute autre échelle, sans frontière, et massivement adoptée. Nos gouvernements doivent réagir promptement et mettre en place des mécanismes de surveillance et de réglementation pour empêcher les abus et bloquer tout risque de dérive. Et si je peux me permettre d’en ajouter une petite couche, le journal français Le Monde, réputé et sérieux, a montré que ChatGPT était capable de produire du contenu qui ressemblait à celui d’un humain, mais qui manquait de nuances et de contexte, et Dieu sait comment les masses aiment le manque de nuances et de contexte, je n’ai certainement pas besoin de vous faire un dessin ici.
ChatGPT peut aussi avoir du bon…
Si nos démocraties doivent promouvoir la transparence et la responsabilité dans l’utilisation de l’IA, ainsi que l’éducation des citoyens sur les risques de la désinformation et de la manipulation, il me parait important de souligner que ChatGPT, et l’IA en général, peuvent aussi avoir un impact potentiellement positif sur le bon maintien de nos sociétés et de nos démocraties.
« ChatGPT aurait été utilisé par le Pentagone pour (…) détecter des tendances et des schémas qui, sans lui, auraient échappé aux analystes humains. »
Je me réfèrerai donc à un article paru dans Vice, qui rapporte que le Pentagone utilise désormais ChatGPT pour aider les analystes à traiter des quantités massives de données et à identifier des tendances et des modèles pertinents. Selon l’article, ChatGPT aurait été utilisé par le Pentagone pour analyser des milliers de documents sur l’Afghanistan et le Pakistan dans le but de comprendre les dynamiques de la guerre en cours dans la région, et aurait été en mesure de détecter des tendances et des schémas qui, sans lui, auraient échappé aux analystes humains.
Même si cela reste à prouver, on comprend bien qu’un outil aussi puissant que ChatGPT permet des analyses (peut-être) plus approfondies et plus précises, mais tout au moins différentes, ouvrant le champ des possibles à la détection des angles morts. La force du modèle de langage de réseau neuronal pour apprendre à partir de vastes quantités de données textuelles et générer des réponses à des questions posées en langage naturel prend ici une tout autre dimension.
Pas de solution miracle
L’article souligne cependant que l’utilisation de ChatGPT par le Pentagone, comme pour toutes les autres utilisations que nous pouvons en faire, soulève des préoccupations quant à la protection des données et à la vie privée, car l’IA peut potentiellement analyser des quantités massives de données personnelles et de communications privées, même si le Pentagone affirme que la technologie est utilisée de manière responsable et éthique, conformément aux lois et aux politiques en vigueur. Transparence, responsabilité et protection des données devront, quant à moi, toujours venir en opposition à l’utilisation croissante de l’IA pour traiter des données, identifier des tendances, créer des modèles pertinents et prendre des décisions, que ce soit par les gouvernements, les groupes armés ou encore religieux. D’autant plus que l’IA n’est pas infaillible et que sa capacité à prendre des décisions est limitée par la qualité des données qu’elle reçoit.
Comme le souligne l’article de The Markup, « l’IA n’est pas une solution miracle à tous les problèmes ». Un peu de retenue face aux avantages et les inconvénients de l’IA avant son utilisation dans des situations critiques, est donc de mise, puisque l’on sait également que l’IA peut être biaisée si elle est entraînée sur des données qui reflètent des stéréotypes ou des préjugés.
Jugement critique
Il est donc important de se développer un esprit critique en regard à l’évolution technologique proposée, et de surveiller et corriger les biais dans les données d’entraînement pour garantir que l’IA ne renforce pas les inégalités existantes. Chat GPT (et l’IA de façon générale) n’est pas une panacée, mais plutôt un outil pouvant être utilisé de manière positive ou négative selon la personne ou le groupe de personnes ayant le contrôle du clavier.
Cela dit, il me parait difficile de tirer une conclusion définitive quant à l’utilisation de ChatGPT et les risques associés de déstabilisation de nos démocraties, ou au contraire, quant aux opportunités d’identifier des tendances et des schémas pertinents pour prendre des décisions éclairées et maintenir ainsi nos démocraties en bonne santé. Comme citoyens, nous devons être conscients des risques associés à l’utilisation de l’IA et devons exiger d’être informés sur la manière dont les gouvernements utilisent cette technologie. À esprits critiques viendra l’obligation de technologies éthiques.
Crédit Image à la Une : Unsplash