Donner un statut juridique à une IA : utopie ou hérésie?

À l’ère numérique, les perspectives illimitées de l’intelligence artificielle (IA) lui confèrent un ascendant sur le cerveau humain. En s’outillant de ces innovations, les entreprises savent qu’elles peuvent rester compétitives. Cependant, donner carte blanche aux machines n’est pas sans risque. Au même titre qu’un individu, l’IA peut porter préjudice. Prochainement, est-ce que le droit tiendrait un robot responsable?

COGITO ERGO SUM

Pendant que la quatrième révolution industrielle en est à ses balbutiements, nous cherchons à développer un encadrement juridique pour les technologies émergentes. Pour y parvenir, on trouve d’abord un point de départ dans la philosophie qui définit la conscience comme liée à nos capacités cognitives. Revenons au XVIIème siècle. René Descartes détermine non seulement que le sujet pense mais également qu’il est conscient qu’il pense. Par son rapport à l’univers, sa mise à distance, l’Homme est capable de se projeter et reste libre de décider sans contrainte extérieure. C’est sur cette notion de libre arbitre et de conscience que la jurisprudence se concentre.

Le deep learning permet aux robots d’acquérir une compréhension de son propre raisonnement. En s’appropriant des fonctions d’apprentissage poussées, l’IA est capable d’organiser et de contrôler des actes volontaires. Cependant, toutes ces capacités n’ont pas encore justifié de leur donner une personnalité juridique. Même l’intelligence générale artificielle (AGI) comme ROSS ou Watson d’IBM, dotées de performances indiscernables d’un être humain, n’ont pas eu accès à ce sésame.

ALLER VERS LE FUTUR

En octobre 2018, afin de susciter la discussion, la chaîne LCI a diffusé les images d’un procès fictif, suite au “carambolage du siècle” causé par une voiture autonome. Sur le banc des accusés nous avons Eurêka et le propriétaire de la voiture, Monsieur Vigi. Magistrats, avocats et chercheurs dans le domaine se sont prêtés au jeu. Ils se projettent en 2041 pour cerner qui est responsable de cet accident spectaculaire. Tandis que les avocats de chaque partie prêchent pour leur paroisse, les témoins défilent à la barre. 

Procès fictif: Eurêka contre Monsieur Vigi – Image: LCI

Avec ce qu’on sait de l’IA forte, l’accusation assure que la voiture analyse des situations complexes. Son apprentissage lui a jusqu’ici permis d’acquérir une quasi “pleine conscience” de ses actes. Son manque de fiabilité la désigne alors comme responsable. L’expert Jean-Claude Heudin certifie qu’en dépit de cette erreur de jugement, la voiture autonome fait dans 99% des cas, le choix le plus judicieux. Ainsi, c’est dans un flot d’expertises, qu’on cherche à savoir qui doit payer sa dette aux victimes. Après délibération, le juge relaxe le conducteur et annonce que la voiture est condamnée à se soumettre à “des mesures de rééducation algorithmique”. Rire général dans la Cour d’appel. 

MAUDITE BOÎTE NOIRE 

Dès lors, on est encore loin de s’imaginer faire la leçon à un robot qui a entraîné des dommages irréversibles. On peut donc se concentrer sur l’algorithme intégré dans la programmation du logiciel. Entre le système de calcul et le développeur, l’opacité persiste. Benjamin Bayart, président du Fond de Défense de la Neutralité du Net (FDN²) milite pour la défense de nos droits face aux risques de l’IA.

«Les algorithmes qui régissent les IA sont tenus secrets par leurs concepteurs.» – Benjamin Bayart- Président du FDN²

Selon lui, nous ne pouvons pas contester le choix d’un robot déterminé à la base par l’intervention humaine. Surtout si nous sommes incapables d’expliquer ce que la machine a retenu lors de son apprentissage. Il faudrait détailler la méthode utilisée par la machine pour bien comprendre son raisonnement. le seul outil disponible à ce jour : un système de retraçage (ou “boite noire”) qui justifie le cheminement du robot vers le résultat dommageable. 

UNE LOI PRÉMATURÉE ?

En janvier 2017, le Parlement européen a publié une recommandation suggérant d’attribuer une “personnalité électronique” aux robots sophistiqués, tout comme les sociétés à qui on a accordées le statut de «personne morale». Ceci les mettrait sur la voie d’un traitement égalitaire vis à vis des humains. Pour Dobah Carré, fondatrice du cabinet d’avocats Prudence AI, ce changement législatif aurait un éventail de répercussions sur d’autres lois existantes et mènerait à de gros paradoxes. Dans l’état actuel du droit, accorder une personnalité juridique se rapporte exclusivement aux humains, ajoute t-elle. Nous venons à peine d’attribuer aux animaux une sensibilité. Mais en cas de litige (morsure, détérioration), c’est toujours le maître qui dédommage la personne ayant subit le préjudice. Qu’en sera t’il avec les IA?

Dobah Carré – Image: Mtlconnecte.ca

«Il faut tourner l’attention sur les intervenants qui ont crée la machine.» Dobah Carré – Fondatrice de Prudence AI

Les exemples en la matière donnent à la presse comme au grand public du grain à moudre, et le législateur a bien du mal à anticiper, ou même à suivre ces évolutions. Cependant, des experts en IA, tels que Nathalie Navejan et Noël Sharkey, continuent à pointer du doigt les constructeurs et leur responsabilité. Selon eux, une telle proposition permettrait aux entreprises de se dédouaner dans un contexte où les avancées technologiques sont clairement surestimées. Ils jugent que ce projet de loi est trop hâtif comparativement aux évolutions réelles. Après tout, n’est-ce pas l’inventeur qui demeure à l’origine de la réflexion du robot?

Quand à l’opacité et à la discrimination des algorithmes, elles donnent bien du fil à retordre aux instances politiques et juridiques. On ne peut attendre d’une machine qu’elle ait des codes ou des valeurs similaires aux nôtres, quand bien même on les lui inculquerait.

En octobre 2020, l’UE a décidé de camper sur un statu quo concernant cet enjeu. Dans l’intérêt de la protection des individus, le consentement de l’Homme prime encore sur celui de la machine. Celle-ci sera contrôlée sans qu’elle ne puisse s’y opposer… Pour l’instant.

 

 

Laisser une réponse

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *