[ANALYSE] L’Europe secoue l’écosystème de l’IA, passant de la confiance aux régulations !

[ANALYSE] L’Europe secoue l’écosystème de l’IA, passant de la confiance aux régulations !

Le 21 avril 2021, l’Union européenne prend les devants et annonce les bases de son cadre de régulation en IA. Ce sont surtout les systèmes à haut risque en apprentissage machine qui sont touchés. Les entreprises utilisant ces technologies pourraient avoir une amende montant jusqu’à la valeur de 4 % de leur chiffre d’affaires. Voyons ici en quoi consiste cette régulation et comment elle va au-delà de la confiance.

LA NOTION DE CONFIANCE EN IA – UNE QUESTION DE DIGNITÉ

Le 19 février 2020, la Commission européenne publie le Livre Blanc sur l’intelligence artificielle. Le sous-titre du rapport s’intitule : « Une approche européenne axée sur l’excellence et la confiance ». Ces deux notions sont centrales et peuvent paraître plutôt abstraites, d’autant plus qu’elles traitent de technologies en IA. 

Il s’agit d’une question de perspectives. La confiance n’est pas à développer ni à travailler du côté de l’utilisateur, mais au contraire du côté de l’objet. Puisque nous parlons ici d’intelligence artificielle, il faut comprendre que celle-ci doit se rendre digne de notre confiance. Mais comment, une autre notion abstraite, l’IA, peut-elle acquérir cette dignité ?

Le fait de savoir qu’il est possible en cas d’erreur d’IA, d’obtenir des dommages et intérêts ne suscite pas la confiance.

Dr. Samuel Klaus, Partenaire TIC, Schellenberg Wittmer Avocats

Nous sommes souvent ambivalents entre l’enthousiasme que procurent de meilleurs outils et les craintes liées à la nouveauté. Aura-t-on plus confiance en un médecin-robot qu’en un médecin traditionnel ?  Confierons-nous aisément notre portefeuille bancaire à une machine ? Aurons-nous autant confiance en un robot de compagnie qu’en un animal de compagnie ?

Les réponses ne semblent plus être de l’ordre du choix. Les objets technologiques sont de plus en plus présents dans nos vies. C’est un constat indéniable. Dans ces conditions, les questions seraient plutôt : comment pouvons-nous avoir autant (sinon plus) confiance en un robot qu’en un humain ?

La confiance par l’explicabilité

De la même manière que nous faisons confiance en des processus ou des comportements familiers, l’inconnu dérange. Mais cette méfiance est légitime, car il y a des aspects de l’apprentissage machine qui restent obscurs. C’est le phénomène de la boîte noire des systèmes en IA.

Pour se rendre dignes de confiance, les objets technologiques doivent pouvoir expliquer leur processus. C’est la notion d’explicabilité qui est mise de l’avant dans le Livre Blanc de la Commission européenne. Établir la confiance de ces objets ne pourra se faire que dans la transparence. 

LA RÉGULATION EN BREF – 3 ASPECTS
1- Les usages interdits de l’IA

L’Europe condamne certaines utilisations de systèmes d’IA qui violent les droits humains. Elle vise ici les systèmes d’IA suivants :

  1. Les techniques subliminales qui déforment le comportement humain et peuvent éventuellement lui nuire.
  2. Ceux qui exploitent les personnes vulnérables.
  3. Les systèmes d’identification biométrique, en temps réel, dans les lieux publics utilisés pour mettre en application les lois. 
  4. Les systèmes utilisés par les autorités publiques pour émettre une appréciation sociale des individus.

L’identification biométrique renvoie surtout à la reconnaissance faciale dans les espaces publics. Le rapport émet des cas exceptionnels pouvant être permis comme :

  • la recherche ciblée de victimes 
  • la prévention d’attaques terroristes 
  • la détection, la localisation et la poursuite de criminels
2- Amendement des systèmes à haut risque

La Commission européenne classifie les systèmes d’IA selon leur niveau de risque envers les droits humains :

  • ceux créant un risque inacceptable ;
  • ceux à haut risque ;
  • ceux avec un risque faible, devant répondre à des exigences de transparence (les chatbots, les deepfakes).

Ces systèmes doivent faire preuve de transparence et fournir l’information nécessaire aux utilisateurs. La supervision humaine doit être garantie en tenant compte de biais d’automatisation. Puis, la précision, la robustesse et la sécurité de ces systèmes doivent être garanties.

3- Exigences en amont et en aval

Une évaluation de la conformité des systèmes d’IA doit absolument se faire à toutes les étapes de la conception, mais également une fois le système mis sur le marché.

En amont :

  • Les systèmes doivent faire preuve de transparence ;
  • Les activités (logging) doivent être répertoriées ;
  • Une surveillance humaine doit être établie ;
  • Les risques entravant les droits humains doivent être identifiés ;
  • La robustesse et la cybersécurité doivent être présentes tout au long du processus ;
  • Les données d’entraînement et de test doivent être de qualité.

En aval :

Une fois le système d’IA déployé sur le marché, il faut continuer à l’évaluer, même s’il est autonome. La surveillance reste très importante. Elle va permettre de déceler des erreurs importantes dans le système et de rapporter ces incidents. 

CONCLUSION

En grande partie, la position de la Commission européenne fait écho aux RGPD (le Règlement général de la protection des données). Les systèmes d’IA doivent proposer une gestion de la qualité de leurs données. De plus, tous les intervenants et tierces parties sont obligés de se conformer aux limites du système.

De manière générale, on peut craindre de fortes réactions par rapport à cette nouvelle approche, car certains systèmes semblent être trop pénalisés tandis que d’autres, comme la reconnaissance faciale, ne le sont pas suffisamment. 

« Les exceptions aménagées conduisent – de fait à une autorisation d’une extension généralisée de la reconnaissance faciale »

Yannick Meneceur

Selon Yannick Meneceur, Chef de l’Unité de développement numérique, Conseil de l’Europe :
« Créer de la confiance passe par des recours facilités pour les individus, par des mesures sociétales prenant mieux en compte la dimension collective des enjeux du numérique (notamment environnementales) et en imposant une charge de mise en conformité fondée sur des preuves scientifiques solides, ce qui est une réelle valeur ajoutée qualitative ».

BIBLIOGRAPHIE

Commission Européenne, Livre Blanc, Intelligence artificielle, Une approche européenne axée sur l’excellence et la confiance, février 2020.

Dewitt, Beth; Le RGPD et les organisations canadiennes, Deloitte, Canada.

Heikkila, Melissa; 6 key battles ahead for Europe’s AI law, POLITICO, avril 2021.

Klaus, Samuel, Avez-vous confiance en l’ intelligence artificielle?swiss-export.com, décembre 2020.

Meneceur, Yannick; Proposition de règlement de l’IA de la Commission européenne : entre le trop et le trop peu ?, LinkedIn, avril 2021.

Mueller, Benjamin; The Artificial Intelligence Act Is a Threat to Europe’s Digital Economy and Will Hamstring The EU’s Technology Sector In The Global Marketplace, Center for Data Innovation, avril 2021.