L’ONU met le frein sur les IA dangereuses avec un moratoire

L’ONU met le frein sur les IA dangereuses avec un moratoire

L’ONU a appelé, le 15 septembre, ses 193 États Membres à réévaluer la portée éthique des systèmes d’IA à haut risque puis à les bannir ou à les réglementer fortement et exhorte tous les pays à le faire.

Dans sa démarche en vue de faire émerger un cadre de gouvernance des systèmes d’intelligence artificielle, l’Organisation des Nations Unies, qui a d’abord misé sur la confiance avec les recommandations de l’Europe, resserre la vis.

Pour contrer la vitesse fulgurante des productions d’applications intelligentes et pour mettre le holà sur les systèmes nuisibles, les Nations Unies recommandent un temps d’arrêt pour évaluer la situation.

Les systèmes intelligents visés par le moratoire sont ceux qui sont classés comme étant à haut risque. Ce sont les applications qui mettent en péril nos droits fondamentaux, notamment les systèmes de reconnaissance faciale. Elles constituent une menace pour le respect des humains.

« La portée éthique des applications est ici l’objet de considération »

Dans sa déclaration du 15 septembre 2021, Mme Michelle Bachelet, Haut-Commissaire des Nations Unies aux Droits de l’Homme recommande « une évaluation et un suivi systématiques des effets des systèmes d’IA afin d’identifier et d’atténuer les risques en matière de droits de l’homme ».

Cette allégation fait suite au rapport de l’ONU, du 13 septembre 2021, demandant une analyse éthique des systèmes à haut risque comme la reconnaissance faciale, la prise de décision automatisée et les technologies d’apprentissage automatique.

RECONNAISSANCE FACIALE ET PROFILAGE : L’HEURE DE LA CONTROVERSE

Classée par la Commission Européenne de système intelligent à haut risque, la reconnaissance faciale est particulièrement visée par le moratoire de l’ONU.

Dans ces applications, les données biométriques sont en jeu. On craint ici, entre autres, les cas de justice prédictive. En effet, plusieurs utilisations à des fins discriminantes ont été répertoriées et occasionnent un profilage menaçant la liberté individuelle, comme l’identification des ouïghours par la Chine.

QUID DE LA PRISE DE DÉCISION AUTONOME ?

La prise de décision automatisée est le processus de prise de décision effectué par des systèmes automatisés, sans aucune implication humaine. Ces décisions sont basées sur des données factuelles, des profils numériques ou encore des données inférées.

Or, il n’y a aucune garantie que la population type ayant servi dans la conception d’un modèle d’apprentissage machine, corresponde à la population qui affectera, plus tard, le déploiement du système. La généralisation ne se fait pas toujours de la meilleure façon. Le choix des opérateurs n’est pas toujours analysé dans son ensemble.

Les prises de décision automatisées font nécessairement face au risque de plusieurs biais.

APPRENTISSAGE AUTOMATIQUE

Dans l’apprentissage automatique, ce sont les algorithmes qui développent leur savoir-faire grâce à l’acquisition et à l’interprétation d’un ensemble de données. Ils apprennent à développer des modèles qui améliorent les processus.

Ici aussi, la généralisation reste approximative. L’algorithme doit lui-même trouver les similarités entre les modèles et créer des ensembles. Il n’apprend plus seulement à identifier les ressemblances, mais à déterminer des points communs entre deux inférences pour en créer une catégorie. C’est un principe de déduction assez avancé.

Mais les algorithmes ne sont pas autonomes de la même manière que les humains. La part morale de leur choix n’affecte pas leurs décisions. Dans un conflit armé, la machine choisira-t-elle d’épargner le plus d’enfants possible ou bien d’anéantir une des têtes dirigeantes de la position ennemie ?

LES SYSTÈMES À HAUT RISQUE

Afin d’évaluer la portée éthique d’un système, on peut se référer, entre autres, aux caractéristiques développées par la Commission Européenne. Les systèmes qui risquent de nuire aux Droits Humains sont :

  1. Les techniques subliminales qui déforment le comportement humain et peuvent éventuellement lui nuire.
  2. Ceux qui exploitent les personnes vulnérables.
  3. Les systèmes d’identification biométrique, en temps réel, dans les lieux publics utilisés pour mettre en application les lois.
  4. Les systèmes utilisés par les autorités publiques pour émettre une appréciation sociale des individus.

Quel est l’objectif principal d’un tel moratoire ? Il s’agit de protéger et de renforcer tous les Droits Humains à la fois dans le développement, l’utilisation et la gouvernance de l’IA. L’ONU engage ainsi tous les pays à assurer le respect des droits fondamentaux pour tout l’environnement des systèmes intelligents et freine l’utilisation de certains d’entre eux. Un pas de plus vers une gouvernance de l’IA.