[ANALYSE] Comment assurer un profilage juste et transparent?

Dès que nous entendons le mot « profilage » nous pensons à son caractère négatif et nous l’associons à son rôle discriminatoire. En criminologie, c’est une technique policière qui consiste à reproduire le profil psychologique d’un individu à partir de données collectées.

Nous pouvons imaginer alors la vitesse à laquelle cette technique évolue grâce à l’intelligence artificielle. Prenons comme exemple, les techniques de reconnaissance faciale ou simplement la maîtrise des données qui progresse. Nous pouvons constater également que cette technique n’est plus réservée au domaine de la criminologie.

LES BIAIS SYSTÉMIQUES

L’analogie avec la systématicité est inévitable. Plus le profilage est codé sous forme d’algorithmes, plus il est systématique. Par ailleurs, plus les caractéristiques psychologiques de tel ou tel individu sont ingérées et plus l’étiquetage sera précis. Le biais de mesure peut se produire lors du choix ou de la collecte des données mais il se produit surtout dans l’élaboration des fonctionnalités informatiques qui ont trait à l’apprentissage machine et à la prédiction. Le choix de telle ou telle étiquette à utiliser dans un problème précis de prédiction algorithmique peut entraîner des conséquences inimaginables.

« Trop d’accent est mis sur la gouvernance de la collecte des données et trop peu sur la façon dont elles sont évaluées. » Sandra Wachter & Brent Mittelstadt

L’actualité a révélé l’existence d’un logiciel de ressource humaine, issue d’une entreprise de renom (que nous évitons de nommer par soucis d’impartialité), contenant un biais majeur dans son étiquetage. Involontairement, en favorisant une quantification sur le nombre de mots d’un curriculum vitae, ils ont découvert un fort avantage sur la position des curriculums vitae masculins. En raison de leur situation familiale, les femmes étant statistiquement moins longtemps sur le marché du travail (visible), présentent, en général, des curriculums vitae moins longs. La quantité de mots a donc déterminé une prévalence des hommes sur les femmes. Il semble en effet, que ce biais soit apparu au moment de l’étiquetage du nombre de mots. Or, le nombre de mots, à la base est une donnée totalement neutre. Vraiment?

Avec l’apprentissage machine, la prédiction et le processus de décision automatisée, autrement dit avec l’intelligence que nous importons dans nos systèmes, les données ne peuvent plus être considérées comme étant totalement neutres. C’est, en grande partie, le rôle de l’éthique en intelligence artificielle d’affirmer cette potentielle non-neutralité des données.

NEUTRALITÉ OU NON DU PROFILAGE

Dans l’analyse du cycle de vie de l’intelligence artificielle, on se rend compte à quel point l’impact sociétal est présent à chacune des étapes de production. La première action concertée fut d’encadrer le moment de la collecte ou de l’acquisition des données. Or cette phase n’est qu’un moment à l’intérieur du cycle de vie des données d’un projet en intelligence artificielle. On y distingue au moins sept phases: la conception du modèle d’affaires, le design, la collecte des données, la construction du système, la phase de tests, le déploiement et le contrôle (monitoring). À chacune de ces phases, les données interagissent entre elles, apprennent les unes des autres et leur fonction ne peut pas être considérée comme étant neutre. Pour quelle raison? Parce que la donnée porte des étiquettes dynamiques qui sont issues de nos jugements subjectifs ou de nos préférences. Ce choix d’attribution de valeur ou d’étiquette sera peut-être transparent, explicable, mais il ne sera pas forcément juste et responsable envers les individus ou la société en général.

La psychologie, les mathématiques et l’éthique sont des champs d’expertise qui semblent parfois se confronter. Mais, ils doivent travailler ensemble pour encadrer les projets en intelligence artificielle afin de minimiser les retombées négatives et analyser conjointement chacune des phases des projets en intelligence artificielle.

L’ANALYSE DES COMPORTEMENTS

Dans le cas précis du profilage, nous voyons une explosion ou encore une mise à découvert des biais imprégnés dans les jugements et les prises de décision automatisées. Que ce soit volontaire ou non, conscient ou pas, la part de l’humain a ses failles et le numérique, par son devoir de transparence, dévoile nos intentions économiques et politiques. Si le profilage est discriminatoire de manière systémique, c’est qu’il semble provenir de jugements subjectifs ou de déductions par rapport à telle ou telle donnée sur, par exemple, la couleur de la peau, le sexe ou l’ethnicité en général des individus (ou de notre identité numérique).

Le profilage, en général, a pour fonction d’analyser, de déduire et de prévoir des comportements typiques relatifs à un individu ciblé ou à une population ciblée, sous forme de catégorisation ou d’étiquetage. Ce processus d’étiquetage a lieu, entre autres, au moment de la construction du système informatique. Mais, l’analyse ici ne repose pas forcément sur un comportement réel. La plupart du temps, il s’agit d’un comportement déduit. Alors, nous sommes en droit de nous demander sur quelles bases pouvons-nous déduire ou prévoir le comportement d’un individu? Une autre question importante serait de nous demander quels sont les critères d’évaluation qui nous permettent, à la fois, de programmer, de déduire et de prévoir le comportement d’une machine intelligente.

« Les appels à la responsabilisation dans l’analyse du Big Data sont motivés par une préoccupation commune : les inférences tirées de fonctionnalités et de données disparates et souvent non intuitives dictent de plus en plus la prise de décisions à l’égard des personnes.» Sandra Wachter & Brent Mittelstadt

 

Les cas de profilage discriminatoires sont fréquents. La portée éthique des données, ne l’oublions pas, ne peut plus se limiter au moment de la collecte des données. L’analyse doit être beaucoup plus complète. Différentes sciences sont interdépendantes dans les projets en intelligence artificielle et afin d’être robuste éthiquement, la science de l’éthique doit prendre sa place à l’intérieur du processus. Une application de profilage bien conçue, par des gens bien intentionnés peut avoir de lourdes portées négatives sur la société. N’étant, tous comptes faits, pas si artificielle que ça, l’IA contient, entre autres, nos imperfections et nos mauvais choix.

 

BIBLIOGRAPHIE

Sandra Wachter & Brent Mittelstadt, A Righgt to Reasonable inferences: re-thinking data protecion law in the age of big data and IA, Columbia Business Law Review – Vol. 2019 – Issue 2

Chouldechova, A. 2017. Fair prediction with disparate impact: A study of bias in recidivism prediction instruments. Big data 5(2):153–163.

Gajane, P., and Pechenizkiy, M. 2017. On formalizing fairness in prediction with machine learning. arXiv preprint; arXiv:1710.03184.

Nabi, R., and Shpitser, I. 2018. Fair inference on outcomes. Intelligence. AAAI Conference on Artificial Intelligence, volume 2018, 1931. NIH Public Access.

2 Commentaires
Laisser une réponse

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *