10 pistes pour une IA responsable dans la finance

10 pistes pour une IA responsable dans la finance

L’Autorité des marchés financiers (AMF) a rendu public, le 22 novembre, un rapport intitulé « L’Intelligence artificielle en finance : recommandations pour une utilisation responsable », conçu non seulement à partir de travaux d’experts, mais aussi des préoccupations des consommateurs de produits et services financiers.

L’AMF, l’organisme de réglementation et d’encadrement du secteur financier du Québec, veut prendre toute sa part dans le déploiement d’une intelligence artificielle (IA) responsable à travers la province.

Au vu de la rapidité du déploiement des innovations en IA, l’Autorité a initié une importante réflexion sur l’utilisation responsable de l’intelligence artificielle dans le secteur financier.

LA CHARTE DE MONTRÉAL POUR MODÈLE

Ce travail a abouti à l’élaboration d’un rapport intitulé « L’Intelligence artificielle en finance : recommandations pour une utilisation responsable ». Il s’est appuyé sur la mise à contribution et des consommateurs et d’une équipe de chercheurs, dirigée par Marc-Antoine Dilhac, professeur agrégé d’éthique et de philosophie politique à l’Université de Montréal.

Ce choix ne tient, évidemment, pas au hasard car celui-ci n’est autre que l’initiateur et l’un des contributeurs à la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle, lancée en 2018, et dont l’objectif était triple :

  • arbitrer collectivement les controverses éthiques et sociétales sur l’IA ;
  • améliorer la qualité de la réflexion sur l’IA responsable ;
  • renforcer la légitimité des propositions pour une IA responsable.

Ainsi, l’Autorité signifie qu’elle ne minimise pas les risques de « nature éthique, juridique et réputationnelle », inhérents à l’instauration des systèmes d’IA. D’autant que la nature multiforme et versatile de l’IA freine les projets d’encadrement et de régulation qui ciblent plutôt des applications précises…

Du reste, Louis Morisset, président-directeur général de l’Autorité le confirme : « J’encourage les participants à l’industrie financière à considérer dès maintenant les recommandations présentées dans ce rapport dans le contexte du développement de leurs systèmes d’intelligence artificielle. »

« Nous nous engageons à faire de même relativement aux recommandations qui y sont formulées et à l’égard de la transformation numérique qui prend aussi place au sein de l’Autorité. Assurons-nous de développer l’intelligence artificielle de façon responsable, afin que tous puissent en être gagnants »– Louis Morisset, président-directeur général de l’Autorité

 FINANCE : 10 RECOMMANDATIONS POUR UNE IA RESPONSABLE

De fait, les auteurs du rapport émettent dix recommandations, essentiellement adressées aux institutions financières et à l’autorité régulatrice (AMF) elle-même.  Cette dernière devrait, ainsi :

  1. créer un cadre modèle de l’utilisation responsable de l’intelligence artificielle en finance, notamment pour identifier les pratiques « non acceptables »;
  2. concerter les parties prenantes pour définir les sources et les types de données à utiliser pour faire fonctionner les systèmes d’IA, et ce indépendamment de la question de la protection des renseignements personnels ;
  3. faciliter la formation des acteurs aux principes de l’IA responsable et développer des programmes destinés aux consommateurs.

Les institutions financières devraient pour leur part :

  1. évaluer la pertinence de l’IA au regard de leur mission et des attentes de leurs clients ;
  2. créer un cadre de gouvernance spécifique qui permette d’attribuer une responsabilité humaine aux décisions prises par un système d’intelligence artificielle ;
  3. adapter leurs procédures de contestation et de recours afin de faciliter les démarches des consommateurs ;
  4. faciliter l’adoption de procédures de certification et d’audit des systèmes d’intelligence artificielle ;
  5. s’assurer que les systèmes d’intelligence artificielle satisfont au principe de résilience, en étant efficaces, robustes et sécuritaires, afin de contribuer à la stabilité des marchés financiers ;
  6. vérifier que l’utilisation de systèmes d’intelligence artificielle ne porte pas atteinte à l’équité ;
  7. s’assurer que l’utilisation de systèmes d’intelligence artificielle respecte l’autonomie des consommateurs en communiquant toute l’information requise pour consentir de manière libre et éclairée, en leur fournissant des justifications des décisions prises à l’aide d’algorithme dans un langage clair, et en respectant la diversité des modes de vie.

Crédit photo : Pexel / Kampus Production