Le droit et l’intelligence artificielle post-ChatGPT : Attachez votre ceinture, on passe en pleine vitesse!

Le droit et l’intelligence artificielle post-ChatGPT : Attachez votre ceinture, on passe en pleine vitesse!

Les pessimistes vous diront à tort que le droit ne pourra jamais rattraper les développements technologiques. Or, cette chronique milite en faveur de l’idéologie des optimistes et vise notamment les entreprises qui prévoient adopter ou développer des systèmes d’intelligence artificielle (SIA). Cette chronique met en lumière les importants développements juridiques en matière d’intelligence artificielle (IA).

La loi fédérale

Commençons avec une évidence : la partie 3 du PL C-27 (Loi sur l’intelligence artificielle et les données, « LIAD ») établit des exigences pour la conception, le développement et l’utilisation de l’IA. Ce projet de loi fédéral vise à atténuer les risques de préjudices et de résultats biaisés, en proposant notamment des manières d’anonymiser les données et d’évaluer les incidences d’un SIA.

La partie 2 du PL C-27 prévoit l’établissement d’un Tribunal pour tout ce qui concerne les renseignements personnels. Il y a fort à parier qu’une jurisprudence en la matière se consolidera sous peu, notamment en matière de responsabilité liée aux produits. Bien que la Chambre des communes n’ait qu’à la deuxième lecture de LIAD, les débats se sont poursuivis et ce depuis le 7 mars 2022, ce qui est de bon augure pour son adoption. La LIAD, qui prévoit notamment des amendes salées allant jusqu’à 3% des revenus internationaux d’un contrevenant, s’appliquerait à toutes les activités suivantes pratiquées au Canada, ou ailleurs :

  • Le traitement ou le fait de rendre disponibles des données liées à l’activité humaine afin de concevoir, de développer ou d’utiliser un SIA
  • La conception, le développement ou le fait de rendre disponible un SIA, ou la gestion de son exploitation.

Au fédéral, la Directive sur la prise de décisions automatisée est déjà bien en vigueur depuis 2021. La LIAD complèterait cette directive en plaçant l’analyse de l’incidence algorithmique au cœur de l’approche. 

De surcroit, plusieurs secteurs ont maintenant des lignes directrices propres à leurs activité, exemple : au fédéral, toutes les subventions accordées par le CRSNG sont sujettes aux Lignes directrices sur la sécurité nationale pour les partenariats de recherche. Ainsi, une diligence raisonnable dans l’analyse des risques de sécurité est exigée lorsque la subvention porte sur l’IA ; au Québec, l’Autorité des marchés financiers a publié un rapport émettant une dizaine de recommandations en matière de IA. 

Au Québec

Dans la belle province, la loi 25 prévoit déjà l’application de plusieurs mesures directes ou indirectes aux SIA. La Commission d’accès à l’information (CAI) a déjà publié, le 19 avril 2022, un précédent spécifique à l’IA dans le dossier 1020040, relativement à l’adoption par une entité publique, d’un SIA pour identifier les élèves à risque de décrochage scolaire. En sus de clarifier les notions d’anonymisation et de dépersonnalisation dans le cadre de l’IA, le précédent précise que même si l’utilisation des renseignements personnels est compatible aux fins de la collection, la génération d’indicateurs prédictifs constitue une nouvelle collection, pour laquelle un nouveau consentement éclairé est nécessaire. Par ailleurs, bien que les dispositions de la loi 25 obligent de pratiquer une évaluation relative aux facteurs de vie privée (« ÉFRVP ») avant l’adoption d’un système de IA seulement à partir du mois de septembre 2023, la CAI émet, dans son rapport, une recommandation non-équivoque quant au fait qu’une ÉFVRP aurait dû être complétée. 

Aucune surprise ici : la CAI avait lancé une consultation sur l’IA en février 2020, pour laquelle la CAI a publié une réponse en mai 2021. Les principes reconnus par la CAI relativement aux renseignements inférés et aux consentements étaient déjà bien établis. Bien que les participants aient soulevés le manque de clarté à l’égard du terme « intelligence artificielle » utilisé par la CAI, notons tout de même que la Cour supérieure avait déjà adopté la définition de la Déclaration de Montréal. 

Notons que plusieurs lignes directrices et précédents de l’Office canadien de la propriété intellectuelle encadrent d’ores et déjà les inventions en matière d’IA, notamment la notion d’inventeur, et les conditions applicables aux brevets. Toutefois, l’interaction entre la protection des droits d’auteur et l’utilisation de l’IA demeure un sujet d’actualité, et une jurisprudence pour clarifier ces notions est à prévoir.

https://www.cscience.ca/2023/03/31/ia-et-donnees-lois-25-et-c-27-ce-que-ca-implique-pour-les-entreprises/

Des lois spécifiques à prévoir selon le secteur

Parmi les autres sujets d’actualité liés à l’IA, on compte notamment l’adoption de plusieurs lignes directrices par Transport Canada pour règlementer l’usage des véhicules connectés et automatisés, ainsi que la cybersécurité et l’architecture des systèmes de transport intelligents. 

Dans le milieu de l’emploi, l’utilisation des SIAs soulève également des questionnements. En Ontario, le Working for Workers Act, bien que non spécifique à l’IA, contient des obligations d’information à l’égard de la technologie utilisée dans le cadre de l’emploi et de l‘analyse de la performance. 

Au regard de tous ces faits, on comprend donc qu’à défaut d’adopter la LIAC, on ne vit pas dans un vide juridique, surtout au Québec. Toutefois, ce paysage dépeint effectivement une autre problématique, soit le manque d’expertise dans le domaine afin d’appliquer ces lois, tant pour les entreprises que pour les régulateurs (ou les avocats!). Il n’y a pas de doute : il faut assurer la disponibilité de l’expertise pour pouvoir règlementer effectivement.

À voir également :

https://www.cscience.ca/2023/03/31/emission-cclair-peut-on-faire-confiance-a-lintelligence-artificielle/

Crédit Image à la Une : Mojahid Mottakin