Microciblage politique, réseau de bots, hypertrucages ; les stratégies de manipulation et de désinformation en cadre électoral sont multipliées par l’intelligence artificielle (IA). Véritable menace pour la démocratie selon le Global Risks Report 2024, la crainte de l’IA se fait de plus en plus sentir alors que le cadre technologique exponentiel menace de moduler les processus électoraux.
Pour lire l’article tel que paru initialement dans la revue animée et interactive LES CONNECTEURS :
La professeure en droit de l’intelligence artificielle et du numérique à l’Université d’Ottawa, et membre de recherche à l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (Obvia), Céline Castets-Renard, rappelle différents dangers liés à l’IA pour la démocratie : « On craint surtout que soient poussées des informations ciblées, vraies ou fausses, pour pouvoir manipuler les opinions. On sait qu’on a affaire à des bulles informationnelles et qu’on est un peu enfermés dans ce qu’on aime voir, dans ce qu’on connaît, dans des opinions qui sont les nôtres, etc. »
« On craint surtout que soient poussées des informations ciblées, vraies ou fausses, pour pouvoir manipuler les opinions. »
– Céline Castets-Renard, professeure en droit de l’intelligence artificielle et du numérique à l’Université d’Ottawa
L’impact du microciblage en ligne visant à influencer l’opinion des électeurs est difficilement quantifiable, étant donné la nature embryonnaire des recherches menées sur le sujet, et leurs résultats mitigés et parfois en contradiction, sans compter la limite des données que Facebook et X rendent accessibles, compliquant les recherches sur la portée de la désinformation présente sur ces plateformes.
Néanmoins, une étude publiée dans le Proceedings of the National Academy of Sciences en 2023 révélait que « l’impact persuasif moyen de la stratégie de microciblage est environ 70 % plus important que celui de la stratégie du ‘meilleur message unique’ ». Mais le rapport nuance que si les avantages du microciblage sont réels, ceux-ci sont également limités, faisant que cette stratégie n’est pas « la force supposément écrasante que les gens redoutent », résume le MIT.
Si une majorité d’adultes américains se disaient « très ou extrêmement concernés » par l’impact de l’IA sur la campagne présidentielle, l’interférence du microciblage semble être, selon d’autres chercheurs du MIT, moins importante et persuasive qu’anticipée, du moins, pour le moment.
Désinformation et liberté d’expression
En plus du microciblage, la crainte que la désinformation ne bouleverse les processus et résultats électoraux est bien présente. Pourtant, le traitement de textes par l’IA permet concurremment de pouvoir trier de l’information et, jusqu’à une certaine mesure, de repérer la désinformation en ligne.
« On a utilisé (des outils d’IA pour repérer la désinformation), par exemple, pendant la pandémie, et on commence à le faire de manière plus systématique en période électorale. »
– Céline Castets-Renard, professeure en droit de l’intelligence artificielle et du numérique à l’Université d’Ottawa
« On a utilisé ce type d’outils, par exemple, pendant la pandémie, et on commence à le faire de manière plus systématique en période électorale. Mais c’est toujours un peu compliqué parce que les outils et les plateformes dominantes sont américaines, et le premier amendement (qui protège la liberté d’expression) est très important aux États-Unis. Donc même si quelque chose est faux, on a le droit de l’exprimer », explique Mme Castets-Renard.
Protéger la démocratie en limitant les impacts de la désinformation passe non seulement par ces outils technologiques, mais aussi par une acceptation morale de la régulation des contenus sur le Web, ajoute la professeure. « On trouve des limites qui ne sont pas technologiques, mais plutôt des limites d’appréciation », comme celles qui se rapportent à ce qui peut être dit ou non, à la liberté d’expression ou à d’autres sensibilités. « Et ça, c’est très variable d’une juridiction à une autre. »
Face à ce contrôle limité de la qualité de l’information en ligne, Mme Castets-Renard rappelle de « prendre l’information qu’on voit sur les réseaux sociaux avec beaucoup de réserves, de croiser l’information avec d’autres sources, et de se méfier de ce qui a l’air extraordinaire, catastrophique ou particulièrement fort. »
Manque de volonté politique
Le Québec et le Canada sont d’importants meneurs de file en matière d’IA. Pourtant, ils accusent un retard important en matière de législation et d’encadrement de cette technologie, malgré la menace potentielle qu’elle représente pour la démocratie. Un retard par rapport à d’autres juridictions, notamment européennes, qui s’explique notamment par un manque de volonté politique de la part des gouvernements québécois et canadien, selon Mme Castets-Renard.
La professeure mentionne à titre d’exemple les quelques mois de consultations publiques qui, l’an dernier, avaient rassemblé divers experts et parties prenantes québécoises en matière d’IA. « Finalement, ça a donné lieu à l’énoncé des principes généraux, mais qui ne sont pas du tout obligatoires, qui sont extrêmement mous. On ne sait pas trop à quoi ça sert d’ailleurs. C’est vraiment très décevant, alors qu’il était question d’une législation. »
Le projet de loi fédéral C-27 vise à créer trois nouvelles lois : une sur l’IA et les données, et deux portant sur la protection de la vie privée des consommateurs et sur le Tribunal de la protection des renseignements personnels et des données.
Mme Castets-Renard déplore aussi la lenteur d’avancée du projet de loi fédéral C-27, qui « est en panne » actuellement. Le projet de loi, décliné en trois principaux volets, vise à améliorer la protection de la vie privée des consommateurs. « Le projet de loi C-27 doit être adopté clause par clause, et c’est extrêmement lent puisque c’est un texte très long. L’IA n’est que dans la partie 3, on n’est pas du tout encore rendu là », résume-t-elle.
Si parfois difficilement mesurable dans sa globalité aujourd’hui, l’impact de l’IA sur la démocratie dépend de la réglementation qui l’encadre. « Il y a toujours l’idée, à mon avis fausse, que si on adopte une législation, on va tuer l’innovation, on va porter atteinte aux intérêts des entreprises. Je pense qu’une clarification juridique devrait s’imposer aux entreprises pour la mise en marché des produits d’IA, et pour qu’il n’y ait pas de problème de discrimination, d’atteinte au droit d’auteur, ou à la protection des données personnelles, etc. », amène enfin Mme Castets-Renard.