Ces algorithmes qui nous aliènent

Ces algorithmes qui nous aliènent

Les algorithmes nous changent-ils? Récemment, une interrogation collective sur le phénomène des chambres d’écho prenait sa place dans l’espace public. Plusieurs craignent la polarisation des idéologies; une fracture sociale nourrie par les algorithmes qui renforcent nos préférences politiques et éthiques. Or, un autre effet délétère de cette technologie, celui-ci encore plus pernicieux, nous guetterait : l’impossibilité de nous transformer, voire de nous améliorer. Une experte nous explique cette nouvelle forme d’aliénation.

Pour Sylvie Delacroix, professeure de droit et d’éthique à l’Université de Birmingham au Royaume-Uni, c’est notre propension à agir selon nos habitudes qui nous rend vulnérables aux effets des algorithmes.

On le sait bien, les réseaux sociaux, tels que Facebook, exploitent les données tirées de nos comportements en ligne pour créer des profils consacrés à chacun de leurs utilisateurs. À leur tour, ces profils servent à ces entreprises pour concevoir des campagnes publicitaires sur mesure qui auront la meilleure chance d’attirer notre regard.

Mais, l’optimisation des réseaux sociaux se fait aussi à un autre niveau. Le contenu qui nous est présenté en ligne est conçu pour captiver notre attention le plus longtemps possible. Chaque seconde compte, et les algorithmes sont minutieusement ajustés pour nous garder sur leur site internet.

Or, ces profils, en plus de nous renvoyer des idées et des opinions qui nous ressemblent déjà, nous mènent vers des sentiers que nous avons maintes fois empruntés.

« Ce qui est en jeu, c’est notre imagination, la possibilité de se transformer. À la longue, le danger vient du fait que l’on risque de perdre cette capacité à être différent de ce qu’on a déjà été », résume Mme Delacroix.

C’est une sorte d’aliénation qui découlerait de cette privation, argumente la professeure.

L’INTELLIGENCE INTUITIVE

Si la philosophie morale contemporaine s’est beaucoup attardée sur les enjeux de délibération, c’est-à-dire sur la capacité des humains de prendre des décisions à partir d’une réflexion rationnelle, Mme Delacroix s’intéresse plutôt à un autre aspect de notre psyché : notre intelligence intuitive.

Difficile à quantifier et surtout à modéliser, cette forme d’intelligence pré-réflexive intervient « lorsqu’un pompier évalue le bon moment pour pénétrer dans un édifice en feu », donne en exemple la professeure.

« Il faut que nous soyons en mesure de contester les décisions prises par les algorithmes et de comprendre pourquoi ces décisions ont été prises » Sylvie Delacroix, professeure de droit et d’éthique

Or, c’est cette intelligence qui est stimulée par nos rencontres fortuites, par ces hasards de la vie qui nous forcent à réexaminer nos habitudes. C’est elle qui nous permet de nous transformer, croit Mme Delacroix.

Ainsi, lorsque des algorithmes nous incitent à répéter chaque jour les mêmes routines conçues pour optimiser nos interactions avec les technologies du numérique, nous sommes cantonnés de plus en plus profondément dans nos habitudes.

C’est cette théorie qu’a présentée Mme Delacroix lors d’une conférence tenue par l’Observatoire international sur les impacts sociétaux de l’IA et du numérique le 9 mars dernier. Le livre Habitual Ethics, dont la publication est prévue en août 2022, expose en détail les recherches de la professeure dans ce domaine.

COMBATTRE L’ALIÉNATION

L’ubiquité des réseaux sociaux et la puissance de leurs algorithmes pourraient nous laisser pessimistes quant à la possibilité de se libérer de leur joug.

Pourtant, la professeure d’éthique ne désespère pas et propose deux solutions afin de ne pas devenir « prisonniers de nos habitudes ».

« Ce qui est en jeu, c’est notre imagination, la possibilité de se transformer. À la longue, le danger vient du fait que l’on risque de perdre cette capacité à être différent de ce qu’on a déjà été » Sylvie Delacroix, professeure de droit et d’éthique

Il faudra tout d’abord travailler sur la façon dont nous construisons nos plateformes numériques, croit cette dernière.

Cela pourrait se faire en créant des outils dans lesquels il serait possible de mettre en évidence des résultats des systèmes d’optimisation «fantômes».

« Il faut que nous soyons en mesure de contester les décisions prises par les algorithmes et de comprendre pourquoi ces décisions ont été prises », souligne Mme Delacroix.

Une seconde méthode consiste à mettre sur pied des fiducies de données, qui assureraient, selon les divers niveaux d’engagement auxquels seraient prêts à se soumettre les utilisateurs, un filtrage des informations fournies aux plateformes.

« On pourrait passer par ces « trusts » pour interagir avec Amazon par exemple. Ce serait à eux de donner leur accord à nos conditions d’utilisation et ça viendrait ainsi changer la dynamique de pouvoir », affirme la professeure.

Crédit photo: Pexels/Brett Jordan