Les moutons noirs à la merci des algorithmes

Les moutons noirs à la merci des algorithmes

En dépit de leurs promesses, les entreprises laissent la technologie s’immiscer dans notre quotidien digital. Ce qu’elles injectent dans leurs lignes de code demeure dans le secret des dieux. Ces scénarios bien rodés dirigent la sphère sociale en fleuretant avec les sentiments et les ambitions professionnelles des utilisateurs. En Chine, le phénomène est tel que l’IA fait partie intégrante des systèmes de surveillance pour toute la population. Une porosité absolue souvent synonyme de répression, et qui laisse bien peu d’échappatoires…

IL ÉTAIT UNE FOIS

Jouer aux entremetteurs

Qui aurait pu prédire qu’un simple calcul pourrait donner naissance à un tandem amoureux? Dès 1962, la technologie manœuvrée par David Gale et Lloyd Shapley utilise le machine learning pour décomposer l’ information et ainsi, trouver une façon de mettre les personnes en couple durablement. 50 ans plus tard, rebelote avec l’application de rencontres Tinder. Seulement à ces débuts, la plateforme utilisait le système de notation Elo, servant à évaluer et surtout, à comparer les utilisateurs. Le critère physique étant roi, nul n’était égal face à la machine. Par conséquent, les profils “déplaisants” se situaient à la hauteur du même standard de beauté…éthiquement parlant, c’était moyen. En 2019, Tinder se targue de ne plus favoriser les physiques agréables mais plutôt de jouer avec les préférences de chacun. Ce jumelage donne corps à nos rêves de célibataire tout comme l’affichage sponsorisé qui défile sur notre fil d’actualité.

Photographie de Oladimeji Ajegbile sur Pexels

L’algorithme Gale-Shapley, plus complexe est repris par les interfaces pour offrir une expérience utilisateur optimale. Au regard des sélections antérieures, le système devine qu’on va aimer un ensemble similaire à nos tendances. Sur sa vidéo Comprendre les algorithmes, Dan Noel explique habilement comment ceux-ci nous composent un menu sur-mesure en fonction des intérêts de chacun. C’est pourquoi les robots prédissent nos choix en se basant sur les répétitions de notre comportement.

Ainsi, les algorithmes analysent tout ce volume de données pour afficher un contenu qui nous plait. Le but: optimiser le temps passé sur la plateforme. Par conséquent, les utilisateurs qui cherchent le grand amour auront envie de passer plus de temps s’ils voient des profils qui correspondent à leurs valeurs et bien sûr à leurs critères physiques.

Mélanie Trudel, fondatrice de l’application québécoise Go See You, ne souhaite pas jouer dans la même cour. Dans les colonnes de La Presse (octobre 2019), elle affirme que la plateforme affiche 100 % des personnes, en fonction de la géolocalisation. Contrairement aux autres, elle laisse les scores de côtés, ce qui laisse la chance à tous utilisateurs d’être vus. Voici une approche qui rassure!

UNE SURVEILLANCE À DOUBLE TRANCHANT

Le management algorithmique

Trahis par des robots. C’est ce que pourraient dire la plupart les chauffeurs Uber qui se sont fait mettre à pied. Depuis 2009, l’interface joue les intermédiaires entre passagers et chauffeurs de voiture. D’une part, l’approche est flexible, facile d’utilisation. D’autre part, c’est un modèle qui séduit le public, car le conducteur est contraint à la convivialité et les prix concurrencent les taxis ordinaires…sous certaines conditions.

Photographie de Peter Fazekas sur Pexels

De surcroît, l’entreprise donne le pouvoir au client de juger la qualité de la course: quel privilège! Si bien qu’Uber reçoit une évaluation directement via sa plateforme sans avoir recours à un tiers. L’externalisation du management destiné aux utilisateurs ressemble tout bonnement à un bureau de ressources humaines. Seule différence, la gestion est opérée par les algorithmes qui sanctionnent les employés avec les chiffres, sans prendre les actions dans leur ensemble.

Le client est roi

L’information circule de manière asymétrique et profite seulement à la direction et aux clients. J.C, ancien employé au sein d’Uber témoigne de ce qui se passe en interne. Selon lui, les cas de harcèlement et de discrimination sont pris très à cœur par la société. À tel point que la compagnie désactive immédiatement le compte du conducteur. Par ailleurs, une mauvaise notation de la part d’un client vaut un avertissement ou une période probatoire durant laquelle le chauffeur doit maintenir une certaine moyenne sur 5.

Sorte de carotte pour façonner le conducteur…sans compter les bonus qui mettent en péril la santé, voire la vie des chauffeurs. Uber les invite à prendre des courses tôt le matin ou très tard afin d’éviter l’insatisfaction des clients quant aux prix du service. À ces heures-ci, le coefficient des prix augmente car il y a beaucoup de demandes pour peu de voiture disponible. Sauf que, le manque de sommeil est incompatible avec la sécurité routière, prônée par la marque. Encore un point qui joue en faveur du client!

«Un comportement abusif de la part d’un passager n’engendrerait jamais son exclusion de la plate-forme. C’est un système très déséquilibré.» J.C

J.C ajoute que les avertissements et les renvois définitifs sont directement liés aux plaintes des utilisateurs qui sont parfois motivés par le remboursement d’une course. Au vu de tous ces cas, il conclut que non seulement la société est avare avec le respect des procédures contradictoires mais que ce sont parfois les mêmes clients qui utilisent ce stratagème. 

DE LA SURVEILLANCE À L’ASPHYXIE

Faire profil bas

En somme, chaque clic a des répercussions sur la sphère sociale. Comment notre historique sur la toile donne t-il ainsi accès à des privilèges? À l’instar des entreprises, les gouvernements déploient un arsenal des plus sophistiqués pour prendre le pouls des futurs coupables. Par exemple: la Chine. Le rapport de force qui s’est engagé avec ses propres patriotes demeure dans les mœurs.  Sous le joug de la censure et du cyber contrôle, les utilisateurs obéissent religieusement aux règles sous peine d’humiliation, de restriction ou d’enfermement.

Baptiste Fallevoz, ancien journaliste correspondant en Chine pendant 7 ans, partage sa vision sur le système de crédits sociaux, instauré dès 2013 dans certaines régions. Il pense que depuis le temps où les autorités verouillent le pouvoir, il est tout à fait naturel que cette étape technologique ne suscite aucune indignation. Vu que le gouvernement vend cette veille numérique comme une lutte contre la corruption, les Chinois n’ont aucune méfiance. Oui, la Chine souhaite faire de ses sujets un modèle de vertu sans quoi leur réputation serait en jeu.

«L’imperméabilité entre les entreprises et le gouvernement n’existe pas. En bref, tout est au service de l’État.» – Baptiste Fallevoz – ancien correspondant en Chine

Persona non grata

Pour accentuer son avance, la Chine lance son plan “Made in China 2025” dont l’épicentre des innovations se situe à Shenzhen. L’enjeu numéro 1: l’autonomie. Ainsi, en plaçant ses propres pions sur l’échiquier, le pays se dote d’experts dociles au service de ses intérêts idéologiques. Les vassaux de l’État tels que les BATX (Baidu, Alibaba, Tencent et Xiaomi) et Huawei, sont capables de façonner une e-réputation ou de repérer les éléments gênants de la République.

Une grande partie de la population est désormais familière avec cette surveillance massive qui va jusqu’à les paralyser: interdiction de voyager, d’accéder à des postes administratifs et de contracter des crédits bancaires. Sur le site de La Radio Télévision Suisse (RTS), Caroline Briner annonce que 17 millions de personnes n’ont pas pu prendre l’avion et 5 millions n’ont pu voyager en train en 2018. Aujourd’hui,  1,4 milliards de citoyens empruntent un parcours balisé par des pénalités répressives.

«La pandémie a musclé l’utilisation de cette surveillance généralisée. Les QR codes sont d’excellents traceurs pour vérifier la cote d’un individus, savoir s’il a été exposé au virus – ce qui fait de lui un suspect.» – Baptiste Fallevoz – ancien correspondant en Chine

Ensuite, le journaliste décrit la région de Xinjiang comme un véritable laboratoire. Cette surveillance chronique donne lieu à un ciblage accru du côté des minorités musulmanes vivant dans cette province.  Dans la ligne de mire: le visage des Ouïghours rigoureusement scruté par Cloud Shield, le logiciel utilisé par Alibaba. Le site de commerce en ligne sert d’espion aux autorités chinoises pour connaître leurs habitudes, et surtout prévenir d’une “menace islamiste”.

Un panorama nuancé?

Sans maquiller son désir de sceller le sort d’une population embarrassante, La République populaire de Chine brille par ses innovations. Néanmoins, la course à l’IA domine tous les champs idéologiques. D’est en ouest, les puissances économiques orchestrent leur élan numérique sous réserve d’assurer la sécurité d’une nation.

Même si dans les pays occidentaux nous avons (encore) des garde-fous, les données personnelles se monétisent à prix d’or et intéressent les hautes sphères politiques. Le cas de Cambridge Analytica avec Facebook a fait scandale en 2016 après la victoire de Donald Trump. La transparence et le consentement pour l’exploitation des données garantis par les entreprisess sont censés protéger les utilisateurs. Finalement, ne serait-il pas plus judicieux de reprendre le contrôle de nos données en les vendant nous-mêmes? >

>>Lire aussi : L’IA et les applications de rencontre font-elles bon ménage?

Images du bandeau: Anete Lusina sur Pexels