[ANALYSE] Les principes éthiques FEAT de Singapour, appliqués à la finance

[ANALYSE] Les principes éthiques FEAT de Singapour, appliqués à la finance

L’ensemble des principes FEAT renvoie aux 4 notions de Fairness, Ethics, Accountability et Tansparency, soit: Équité, Éthique, Responsabilité et Transparence. Tâchons de comprendre la teneur de ces principes et leur aspect évolutif, voire transférable à d’autres industries.

LES FONDEMENTS DE CES PRINCIPES

Dans le monde de la finance, cette initiative en éthique de l’IA, coordonnée par l’Autorité Monétaire de Singapour (AMS), est une des premières à voir le jour! En effet, le 12 novembre 2018, le comité de l’AMS présente les 4 principes FEAT.

Le comité est alors coprésidé par le directeur des données de l’AMS, Dr David Hardoon, et M. Hsieh Fu Hua, cofondateur et conseiller de PrimePartners. Le papier contient un ensemble de principes « généralement acceptés » qui permet d’encadrer l’utilisation de l’IA de même que l’analyse des données, dans la prise de décision liée aux produits et services financiers. L’objectif est de mieux orienter l’automatisation en finance et, en définitive, de rassurer la clientèle.

« En finance, Singapour a été un des premiers pays à tracer la voie éthique, les autres ont suivi le pas et FEAT est devenu un modèle international. »

– Rheia Khalaf, directrice de la recherche collaborative et des partenariats, Fin-ML

« En finance, Singapour a été un des premiers pays à tracer la voie éthique, les autres ont suivi le pas et FEAT est devenu un modèle international », explique Rheia Khalaf, directrice de la recherche collaborative et des partenariats, Fin-ML.

Plusieurs partenaires se sont joints à l’élaboration des principes, comme la Personal Data Protection Commission (Commission de la protection des données personnelles de Singapour) et Infocomm Media Development Authority (IMDA) de Singapour également. De plus, les opinions et commentaires d’institutions financières, d’associations industrielles, d’entreprises Fin-Tech, de fournisseurs de technologie et d’universitaires, ont permis de raffiner le consensus autour des 4 principes.

LES 4 PRINCIPES EN DÉTAIL

1. Équité (Fairness)

Dans le monde de l’IA en général, l’équité renvoie aux enjeux de discriminations causés par des données qui sont pauvres ou encore inadaptées. Les mesures d’équité visent, en général, à ce que les individus ou les groupes d’individus ne soient pas systématiquement défavorisés par les décisions automatisées.

Les données et les modèles utilisés pour les décisions autonomes sont donc examinés et validés pour leur exactitude et leur pertinence afin de minimiser les biais involontaires. Les décisions autonomes sont régulièrement revues afin que les modèles se comportent comme prévu. Fairness est le premier des 4 pôles développés.

2. Éthique

Selon le papier, l’utilisation des systèmes doit être conforme aux normes éthiques, aux valeurs et aux codes de conduite du cabinet. Les décisions doivent être tenues au moins aux mêmes normes éthiques que celles pour l’humain.

Selon Rheia Khalaf de Fin-ML, ce principe paraît un peu flou et beaucoup plus général que les autres. En effet, il s’agit plutôt ici de déontologie (une forme d’éthique particulière) qui renvoie à un code de conduite établi, soit au sein de l’entreprise, soit par une entité internationale comme les Nations Unies.

Pour être opérationnalisable, ce principe semble manquer d’agilité et gagnerait sans doute à être défini de manière plus évolutive, afin de s’adapter au monde de l’IA.

3. Responsabilité

L’automatisation de la prise de décision des systèmes doit être approuvée par une autorité. Les décisions concernant ces systèmes doivent donc remonter à la direction de l’entreprise ou au conseil d’administration. Puis, les entreprises qui utilisent ces systèmes sont tenues responsables des conséquences internes et externes provoquées par ces décisions. De plus, les utilisateurs doivent avoir accès à des canaux de communication pour se renseigner sur les recours possibles en cas d’insatisfaction.

4. Transparence

L’utilisation des systèmes aux prises de décision autonomes doit être divulguée aux personnes concernées afin d’améliorer leur confiance. La divulgation consiste à fournir des explications claires sur les données utilisées et sur les conséquences que les décisions peuvent avoir sur eux.

« Une des tendances observées sur le marché canadien en finance est la transparence exigée par le consommateur.»

– Rheia Khalaf lors d’une vidéoconférence avec Fin-ML

Dans cette optique, le principe devrait pousser plus loin les exigences d’explicabilité et fournir une description claire des processus utilisés dans la pratique décisionnelle des systèmes. Comment les déductions sont-elles faites? De plus, l’explication devrait être comprise, non seulement par des professionnels de l’IA, mais par tout utilisateur.

L’OPÉRATIONNALISATION DES PRINCIPES FEAT

Le programme VERITAS

Le 6 janvier 2021, l’Autorité Monétaire de Singapour (AMS) a annoncé la réalisation de la première phase de VeritasLa phase 1 du programme Veritas représente une forme d’opérationnalisation du premier principe FEAT: Fairness. Ce nouveau cadre d’évaluation a été appliqué: (1) à la notation du risque de crédit et (2) au marketing. Le Consortium Veritas est composé de 17 membres et de 14 institutions financières.

Deux livres blancs détaillent ce cadre d’évaluation en 5 parties. On y montre comment évaluer l’application des principes d’équité (Fairness) de FEAT dans les deux cas d’utilisation. Le code source est ouvert (Open Source) et l’analyse des deux cas d’utilisation sont accessibles au public, pour aider la finance à stimuler son développement.

La suite…

La phase 2 de Veritas vise à mettre en place la détection des fraudes et l’identification des réclamations suspectes des clients, pour les compagnies d’assurance. En effet, ce sont des activités clés dans le traitement des réclamations. La détection de fraude traditionnelle nécessite beaucoup de ressources et les compagnies d’assurance peuvent utiliser les décisions automatisées afin d’améliorer leurs capacités de détection de fraude.

« Il existe des enjeux d’incitation vertueuse (nudging) dans le domaine de l’assurance. »

– Rapport sur l’intelligence artificielle en finance, AMS.

Dans la foulée, l’Autorité des Marchés Financiers du Québec (AMF) a décidé d’engager un dialogue sérieux sur l’utilisation responsable de l’IA dans l’industrie financière. Pour l’aider à relever ce défi, l’Autorité a sollicité l’apport du professeur agrégé d’éthique et de philosophie politique à l’Université de Montréal, Marc-Antoine Dilhac, qui est à l’origine de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle.

Crédit Image à la Une : Unsplash