Quand l’IA fait la loi : le paradoxe de l’œuf et de la poule

Quand l’IA fait la loi : le paradoxe de l’œuf et de la poule

S’il a beaucoup été question de l’importance de se doter de réglementations pour mieux encadrer le développement et l’usage de l’intelligence artificielle, plus récemment, c’est dans le milieu juridique que l’IA soulève le plus de questions et crée des précédents. Alors qu’on s’imagine bientôt être jugés par des robots au tribunal, déjà, on troque les services des avocats contre ceux de chatbots. Mais où en est cette révolution, et quels en sont les bénéfices, sinon les risques encourus ?

ChatGPT dans le rôle du législateur

En novembre dernier, au Brésil, des politiciens de la ville de Porto Alegre ont découvert que la loi qu’ils avaient promulguée avait été écrite par ChatGPT à leur insu. C’est le conseiller municipal Ramiro Rosário qui a demandé à l’outil d’élaborer une proposition de règlement visant à empêcher la ville de facturer aux contribuables le remplacement des compteurs de consommation d’eau en cas de vol.

Après son adoption par les 36 législateurs du conseil, Rosário a reconnu qu’elle avait été rédigée par le chatbot d’OpenAI, déclarant : « Si je l’avais révélé auparavant, la proposition n’aurait certainement pas été soumise au vote. Il serait injuste envers la population de courir le risque que le projet ne soit pas approuvé, simplement parce qu’il a été écrit par l’intelligence artificielle. » L’ordonnance est entrée en vigueur le 23 novembre dernier, devenant la première législation du Brésil entièrement écrite par l’IA.

« Il serait injuste envers la population de courir le risque que le projet ne soit pas approuvé, simplement parce qu’il a été écrit par l’intelligence artificielle. »

– Ramiro Rosário, conseiller municipal de Porto Alegre

Or, dernièrement, il a surtout été question de l’inverse, c’est-à-dire de tenter d’élaborer des lois pour encadrer l’IA. En Europe, on vient de se doter de la toute première réglementation sur l’intelligence artificielle, adoptée le 2 février dernier à l’unanimité par les ambassadeurs de l’Union européenne : L’AI Act. Plus récemment, au Canada, le rapport Prêt pour l’IA du Conseil de l’Innovation du Québec a fait état de 12 recommandations favorables au développement de l’IA, la première se rapportant à son encadrement.

Le conseiller Ramiro Rosário. (Instagram)

Mais c’est lorsque certains législateurs sont tentés de s’en remettre aux robots pour leur demander comment ils s’auto-réguleraient, qu’émergent beaucoup de questions de l’ordre du conflit d’intérêts, semant le doute quant au réel contrôle de la situation. En janvier 2023, un sénateur du Massachusetts, Barry Finegold, a d’ailleurs demandé à ChatGPT de rédiger en partie une loi encadrant sa propre utilisation. Intitulée « Loi élaborée avec l’aide de ChatGPT pour réguler les modèles d’intelligence artificielle générative comme ChatGPT », elle a été introduite par son bureau, peu de temps après.

L’IA dans la peau d’un juriste ou d’un conseiller juridique

Selon la banque d’investissement Goldman Sachs, 44 % des tâches du secteur légal seront automatisées par l’IA et peuvent déjà l’être. L’OCDE (Organisation de coopération et de développement économiques), ainsi que plusieurs institutions, mentionnent les services juridiques comme étant LE domaine où les emplois seraient les plus menacés par l’IA. De plus en plus utilisés par les cabinets d’avocats, sinon la population, en Europe comme en Amérique, les agents conversationnels et autres outils d’automatisation révolutionnent la manière de trouver des ressources et des cas de jurisprudence, en parcourant les bases de données et la littérature, mais aussi d’obtenir des conseils juridiques à moindre coût.

44 % des tâches du secteur légal seront automatisées par l’IA

– banque d’investissement Goldman Sachs

Au Canada, les avocats ont commencé à déléguer certaines tâches aux outils intelligents. Récemment, la bâtonnière Catherine Claveau a déclaré en entrevue avec le journaliste de Radio-Canada, Hugo Prévost, qu’au Barreau du Québec, on ne fermait pas la porte à l’idée de recourir à des outils comme ChatGPT. Elle a précisé que de tels outils peuvent constituer une valeur ajoutée pour les clients, en plus d’être déjà utilisés, par exemple, dans l’aide à la recherche dans la jurisprudence, où l’assistant des logiciels se basent sur des banques de données fiables, et fait gagner beaucoup de temps aux juristes.

Aux États-Unis et en Angleterre : remplacer carrément l’avocat et permettre à la population de lancer des procédures

Le site « DoNotPay », lancé par le britannique Joshua Browder il y a quelques années déjà, est un service juridique en ligne et un chatbot qu’on décrit comme un « robot avocat ». La plateforme utiliserait l’IA pour contester les amendes de stationnement et fournir divers autres services juridiques, comme de lancer des procédures et poursuites, moyennant un coût d’abonnement de 36 $ tous les deux mois. Actuellement offert en Angleterre et dans les 50 États des États-Unis, le service génère des avis mitigés.

Entre craintes et bénéfices

Outre les risques de développer une paresse intellectuelle et de baisser le niveau de réflexion des législateurs et des juristes, les craintes liées au fait d’intégrer davantage de processus automatisés dans le traitement des questions légales se rapportent surtout aux risques de perdre la clientèle, qui pourrait se désintéresser des services d’avocats et se tourner vers les robots pour obtenir des conseils juridiques. Du point de vue de la population générale, ce scénario suggère aussi que l’accès aux ressources et recours juridiques en sera plus démocratisé. Le fait de pouvoir commander un survol et une analyse automatisés, instantanés, complets et moins faillibles de toute la jurisprudence et des bases de données internationales, dans toutes les langues, constitue aussi un incitatif dans le milieu juridique en faveur du recours à l’IA.

Mais comme tout projet d’intelligence artificielle, l’innovation dans le secteur soulève des questions d’éthique non négligeables quant aux biais culturels et préjugés sur lesquels pourraient se fonder ces nouveaux processus, puisque les bases de données à partir desquelles se construisent les modèles d’IA sont presque toujours porteuses de biais issus de la littérature humaine, et parfois trop homogènes.

Un rapport de janvier 2024 publié par l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (Obvia) soulève justement que « Le fait que les modèles d’IA générative tendent à générer du contenu similaire à leurs données d’entraînement comporte le risque de réduire la diversité des idées qui sont présentées aux étudiants, par exemple, en privilégiant des perspectives dominantes au détriment de voix plus marginales ».

Crédit Image à la Une : Ramiro Rosário (libre de droit) et robot juge (Shutterstock)


Pour entendre la chronique de la rédactrice en chef de CScience, consacrée au sujet, à l’émission Moteur de recherche animée par Matthieu Dugal sur ICI Première, rendez-vous sur OHdio.