La stratégie canadienne pour encadrer l’IA

La stratégie canadienne pour encadrer l’IA

L’intelligence artificielle (IA) pose un défi aux juristes, car elle crée de nouvelles situations dans lesquelles la protection des droits et libertés des individus est mise à rude épreuve. Crédit social, reconnaissance faciale, collecte de données personnelles : ce sont là certains enjeux qui doivent être mieux encadrés par le système légal, selon plusieurs experts. Le Canada, s’il n’est pas le seul à vouloir réglementer ces innovations, a tout de même adopté une stratégie unique pour concevoir les lois de demain.

« Au Canada, on n’a pas la même façon de faire qu’en Europe. Le processus se fait en consultation et on implique beaucoup plus les citoyens », souligne Cynthia Chassigneux, associée au cabinet Langlois Avocats à Montréal.

Si cette dernière s’adonne à ce comparatif, c’est parce que la Commission européenne a récemment déposé un guide pour régulariser la question de l’IA sur son territoire.

Se faisant, nos cousins de l’autre côté de l’Atlantique ont pris les devants en ce qui a trait à cette question.

« L’Europe a pris une avance considérable en matière d’encadrement de l’IA. Elle a désormais le leadership dans ce domaine. Chez nous, les préoccupations ont surtout été sectorielles. On s’est inquiété des conséquences de l’IA dans le milieu de la santé, par exemple », insiste Marc-Antoine Dilhac, professeur en éthique et philosophie politique à l’Université de Montréal.

L’aspect coopératif des efforts canadiens en ce qui concerne le développement responsable de l’IA, M. Dilhac le connaît bien.

En effet, celui-ci est membre du Conseil consultatif en matière de l’intelligence artificielle du gouvernement canadien et il a participé à la rédaction de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle.

Les principes de ce texte fondateur pourraient fort bien influencer les lois de demain.

Or, la Déclaration a elle aussi été le résultat d’un effort collaboratif, rappelle le professeur.

« Pour rédiger la Déclaration de Montréal, nous avons pris part à des consultations publiques. Cela nous a permis d’identifier des enjeux qui sont ignorés par les experts » – Marc Antoine Dilhac, professeur en éthique et philosophie politique à l’Université de Montréal

Cette stratégie reflète une différence fondamentale avec celle adoptée par l’Europe, où l’on choisit plutôt la méthode « top down » pour créer les textes de loi, des institutions vers les citoyens.

Par ailleurs, le Conseil consultatif remettra cet été un rapport sur les récentes activités de mobilisation et des recommandations à propos de la sensibilisation du public aux enjeux de l’IA. Un dernier atelier à ce sujet est prévu à la mi-mai.

ENCADRER L’IA NE DATE PAS D’HIER

Bien que l’Europe a devancé le Canada dans le processus d’encadrement de l’IA avec son document de propositions et le Règlement général sur la protection des données, présenté en 2016, plusieurs efforts en ce sens existaient déjà ici.

En 2007, l’Association francophone des autorités de protection des données personnelles a vu le jour à Montréal.

Dix ans plus tard, l’organisme a adopté à l’unanimité une résolution sur l’accompagnement de l’intelligence artificielle.

De plus, présenté l’été dernier, le projet de loi 64 vise à moderniser des dispositions législatives en matière de protection des renseignements personnels au Québec et touche plusieurs aspects liés à l’IA.

Au fédéral, il faudra surveiller dans les prochaines années l’adoption de la loi C-11, qui apportera des modifications à la législation protégeant la vie privée des consommateurs et au Tribunal de la protection des renseignements personnels et des données.

PLUSIEURS CRITIQUES

Déposé le 21 avril dernier, le document de propositions sur l’encadrement de l’IA du Conseil Européen délimite clairement les utilisations souhaitables ou non des algorithmes.

On catégorise en quatre classes les niveaux de risque associés aux technologies: de «peu» à «moyen», jusqu’à «élevé» et enfin «inacceptable».

L’idée du crédit social, système méritoire qu’on expérimente en ce moment en Chine, est par exemple considérée comme étant trop risquée pour la protection des droits et libertés pour être acceptable.

Les enjeux de collecte des données, de biais, d’utilisation des informations biométriques et de « l’explicabilité » des algorithmes ont eux aussi passé sous la loupe de la Commission.

D’ailleurs, avant même d’avoir été rendu public, le texte a été critiqué dans les médias.

En effet, plusieurs chefs d’industrie craignent que des lois trop restrictives nuisent au développement de nouvelles technologies.

« Si l’encadrement est juste, il n’y a pas de raison qu’il mette un frein à la venue d’innovations. Le Canada, le Québec et Montréal sont des pôles d’attraction en IA et cela n’a pas empêché qu’on adopte les principes de la Déclaration de Montréal » – Cynthia Chassigneux, avocate associée au cabinet Langlois

Cette critique, M. Dilhac la balaie lui aussi du revers de la main.

« La réglementation, ça peut toujours être un coup pour les start-ups et les entreprises, mais ça fait au moins depuis trois ans que l’industrie anticipe la venue de lois gouvernant l’IA. Ils s’y sont préparés. Ce qui m’inquiète plus ce sont les règlements de « façade » », insiste-t-il.

En effet, l’expert se désole que les propositions européennes laissent de la place à plusieurs exceptions en matière d’encadrement de l’IA.

« Si on dit stop sauf dans un cas de sécurité nationale, de terrorisme, d’enquête sur des réseaux de pédophiles et ainsi de suite, on ouvre la voie à des erreurs judiciaires et surtout on va à l’encontre de l’objectif de la réglementation », indique le professeur.

Au final, lorsque viendra le moment d’adopter des lois qui superviseront de façon adéquate une utilisation responsable de l’IA au Canada, c’est en s’assurant que les droits et libertés de la personne seront respectés que l’on atteindra notre but, conclut Me Chassigneux.

Crédit photo: Pixabay