Le conseil de surveillance de Meta juge que le géant des réseaux sociaux fait preuve d’iniquité à l’endroit de ses utilisateurs quant à l’application de ses politiques de censure et de modération, accordant des passe-droits aux célébrités.
Selon le conseil, lorsque des contenus sont signalés sur Facebook ou Instagram pour raison d’infraction potentielle, ils sont aussitôt retirés quand leurs auteurs sont peu suivis ou pas assez connus. Or, dans le cas d’utilisateurs inscrits sur la liste blanche de Meta, les contenus demeureraient lisibles pendant l’étude de leur conformité, un examen qui s’étendrait parfois sur plusieurs semaines, indique-t-on dans le rapport du 6 décembre.
Des algorithmes discriminatoires
Les algorithmes des plateformes de Meta seraient ainsi entraînés à accorder un traitement de faveur aux contenus problématiques lorsque ces derniers seraient publiés par des personnalités politiques et publiques ou par des chefs d’entreprises. « Cela doit cesser », insiste le conseil, qui se dit « préoccupé par la façon dont Meta a fait passer ses intérêts économiques avant la modération des contenus ».
Qualifié d’ « indépendant » bien que financé par Meta, le conseil de surveillance a été créé en 2020. Il est composé d’une vingtaine de membres, incluant des journalistes, juristes, activistes et ex-figures politiques, de différentes nationalités, qui aujourd’hui demandent une refonte importante du programme de double vérification ou « cross-check » du géant web afin de le rendre plus honnête.
« L’absence de critère transparent dans l’élaboration des listes cross-check de Meta rend cette inégalité de traitement tout particulièrement préoccupante. »
– Conseil de surveillance de Meta
« Le système de contre-vérification accorde davantage de protection à certains utilisateurs. Si la publication d’une personne figurant sur les listes de cross-check de Meta est identifiée comme étant en infraction avec les règles de l’entreprise, elle est maintenue sur la plateforme jusqu’à nouvel examen. Meta applique alors l’intégralité de ses politiques, y compris les dispositions constituant des exceptions ou relevant d’un contexte particulier, ce qui augmente les chances de la publication de rester sur la plateforme. En revanche, il est beaucoup moins probable que le contenu des utilisateurs ordinaires soit traité par des examinateurs en mesure d’appliquer l’intégralité des règles Meta. L’absence de critère transparent dans l’élaboration des listes cross-check de Meta rend cette inégalité de traitement tout particulièrement préoccupante. Bien qu’il existe des critères clairs pour y inclure les partenaires commerciaux et les membres de gouvernement, les utilisateurs dont le contenu pourrait être important du point de vue des droits de l’homme, comme les journalistes et les organisations civiles, disposent de moins de voies d’accès au programme », justifie le conseil.
« Il s’agit en effet d’une problématique assez courante sur Facebook et Instagram, qui permettent certaines choses aux créateurs qui sont populaires, entame en entrevue avec CScience Patricia Guardado, créatrice de contenu et coordonnatrice Marketing et gestion des réseaux sociaux. Je trouve cela très injuste, ayant vu des publications qui n’étaient pas problématiques au départ se faire supprimer ou signaler, tandis que celles de certaines célébrités, souvent plus osées, ne reçoivent pas le même traitement. »
Meta devra faire ses devoirs…
En réponses à ce constat, les membres du conseil de surveillance ont fait plusieurs recommandations :
- Que Meta accorde la priorité aux expressions importantes pour les droits de l’homme, et notamment celles d’intérêt public;
- Que Meta mesure, vérifie et publie les indicateurs clés de son programme cross-check, afin d’être en mesure de dire si le programme fonctionne efficacement, et que l’entreprise établisse des critères publics clairs permettant l’inclusion sur les listes cross-check;
- Que le contenu identifié comme étant en infraction grave lors de la première évaluation de Meta soit supprimé ou masqué le temps d’effectuer l’examen supplémentaire.
Rappelons qu’en octobre 2021, le conseil avait déjà lancé un examen de contre-vérification à la suite de révélations faites par une ancienne employée de Meta/Facebook, Frances Haugen, qui l’accusait de faire passer ses profits avant la sécurité des utilisateurs. La plateforme a d’ailleurs souvent fait l’objet, au cours des dernières années, de critiques quant à sa modération, notamment à l’endroit de contenus scientifiques, souvent censurés, et ce même lorsque provenant de sources crédibles.
Crédit Image à la Une : Pexels et Unsplash