Encadrement légal pour la reconnaissance faciale : le débat est relancé

Encadrement légal pour la reconnaissance faciale : le débat est relancé

Les recours à l’intelligence artificielle (IA) et aux méthodes de reconnaissance biométriques, telles que la reconnaissance faciale ou digitale, sont de plus en plus présents dans nos rapports à la technologie. Qu’il s’agisse de s’en servir à des fins récréatives, de sécurité, ou autre, leur omniprésence n’en demeure pas moins préoccupante du point du vue de l’éthique et du manque d’encadrement légal. Encore hier, un comité de la chambre des communes du Canada tirait la sonnette d’alarme.

La reconnaissance faciale, c’est quoi?

La reconnaissance faciale (TRF) est un processus qui, grâce à l’IA, analyse les traits du visage ainsi que des données biométriques, comme les yeux, et les compare au besoin à des photos ou des vidéos.

« De la même façon que les individus peuvent être identifiés par leur apparence physique, la technologie biométrique permet d’identifier les utilisateurs selon certaines caractéristiques physiques ou comportementales », indique Tessa Anaya, analyste de contenu chez le fournisseur de marché en ligne Capterra.

Une montée en société

Controversée, cette technologie soulève toutefois plusieurs questions quant à l’atteinte à la vie privée et aux risques de surveillance généralisée. Et pourtant, elle est de plus en plus populaire au quotidien, ne serait-ce qu’auprès de ceux qui l’utilisent pour déverrouiller leur téléphone.

Un rapport publié cette année par Capterra révèle d’ailleurs que 35 % des Canadiens ont recours aux méthodes de reconnaissance faciale de façon récurrente. Si le tiers de la nation est déjà conquis, ne faudrait-il pas agir rapidement pour en encadrer les usages?

« La technologie de reconnaissance faciale (TRF), qui repose sur l’IA, gagne aussi en popularité. »

– le Comité permanent de l’accès à l’information, de la protection des renseignements personnels et de l’éthique (ETHI)

Une demande de moratoire

Le 4 octobre dernier, le Comité permanent de l’accès à l’information, de la protection des renseignements personnels et de l’éthique (ETHI) a déposé une demande de moratoire sur l’utilisation de la TRF par la police fédérale et les entreprises canadiennes, sauf autorisation d’un tribunal ou avis de l’organisme de protection de la vie privée.

Puisqu’il n’existe pas de loi adéquate pour encadrer la TRF, l’ETHI, dans son rapport, énonce qu’ « une pause nationale devrait être imposée en ce qui a trait à l’utilisation de la TRF, particulièrement en ce qui concerne les services policiers ».

Il y somme également le gouvernement d’élaborer un cadre réglementaire quant à ses utilisations et interdictions, et quant à la surveillance et à la protection de la vie privée par l’outil.

« L’intelligence artificielle (IA) est aujourd’hui omniprésente dans la société. La technologie de reconnaissance faciale (TRF), qui repose sur l’IA, gagne aussi en popularité. Au Canada, la TRF a récemment fait l’objet d’une enquête conjointe du Commissariat à la protection de la vie privée du Canada (CPVP) et de ses homologues provinciaux de l’Alberta, de la Colombie-Britannique et du Québec dans le dossier impliquant Clearview AI », peut-on lire dans le rapport.

Un rappel des faits

L’année dernière, le Commissaire à la protection de la vie privée du Canada et ses homologues provinciaux du Québec, de la Colombie-Britannique et de l’Alberta ont conclu que la société américaine Clearview AI, qui offre aux policiers un système de reconnaissance faciale controversé, avait fait de la surveillance de masse illégale au Canada, notamment au Québec.

Selon Mme Anaya, « L’utilisation abusive des données biométriques par Clearview AI a érodé la confiance des Canadiens envers ce type de processus. En effet, des balayages de reconnaissance faciale avaient été réalisés sans consentement des individus, et ce dans le but de participer au travail de la police. »

En février 2021, le CPVP a publié le rapport de son enquête conjointe dans lequel il a conclu que Clearview AI n’avait pas respecté la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE) en procédant à la collecte massive d’images sans le consentement des individus concernés et à des fins inappropriées.

L’ETHI précise que « C’est dans ce contexte qu’en décembre 2021, (il) a adopté à l’unanimité une motion visant à entreprendre une étude sur l’utilisation et les impacts de la TRF et le pouvoir grandissant de l’IA ». Le comité souhaite que des protections appropriées de la vie privée s’appliquent quant à l’exactitude, la conservation des données et la transparence dans les initiatives de reconnaissance faciale, et qu’une stratégie globale autour du consentement éclairé des Canadiens soit élaborée pour l’utilisation de leurs informations privées.

Les députés demandent également que la loi sur la protection de la vie privée dans le secteur privé soit modifiée afin d’interdire la capture d’images de Canadiens sur Internet ou dans des espaces publics destinées à alimenter les bases de données.

Le rapport évoque finalement les « dommages irréparables » que la technologie de reconnaissance faciale et autres outils d’IA pourraient causer si non encadrés.

Ailleurs en Amérique

Image tirée de La Servante écarlate (The Handmaid’s Tale). Crédit : Alamy

Aux États-Unis, le recul du droit à l’avortement a soulevé une nouvelle inquiétude après l’annulation de l’arrêt Roe v. Wade par la Cour suprême.

Et si les caméras de surveillance publique et la reconnaissance biométrique étaient un jour utilisées à des fins d’identification contre des patientes ayant visité une clinique pour y subir un avortement? Comment éviter que cette technologie devienne un outil de surveillance comparable à ceux de Gilead dans La Servante écarlate?

Pourrait-on imaginer que dans certains États américains, avec le développement d’outils plus sophistiqués mis à la disposition des procureurs, la confidentialité médicale soit compromise? Rien n’écarte cette possibilité.

Des usages bénéfiques

L’ETHI reconnaît toutefois que certaines utilisations de la TRF peuvent être bénéfiques pour la société : « Par exemple, Mme (Carole) Piovesan (associée directrice chez INQ Law) a indiqué que la TRF peut faciliter et accélérer le paiement en toute sécurité à la caisse d’un magasin ou sauver la vie d’un patient. Elle a mentionné l’utilisation de TRF dans le domaine de la santé pour aider à surveiller les patients et s’assurer que leur condition ne change pas. Elle a noté que la TRF peut être utile pour prouver l’identité d’un utilisateur afin d’accéder à des services bancaires ou à son téléphone. La TRF peut aussi être utile pour effectuer une transaction financière. »

On peut aussi se servir de la reconnaissance faciale pour analyser ses expressions et s’améliorer comme présentateur ou conférencier. C’est notamment ce que permet de faire Pitchonair, une application d’analyse cognitive qui permet de pratiquer des discours, des présentations, des entretiens d’embauche et divers exercices de communication verbale.

Grâce à des mises en contexte réelles paramétrées et analysées directement sur la plateforme, d’un ordinateur, d’une tablette ou d’un téléphone avec caméra et micro intégrés pour s’enregistrer, la solution collecte et traite des données puis génère un score à partir de ce qui a été enregistré et filmé.

Mathieu Halle, président et cofondateur de Pitchonair, nous explique que la solution « a pour objectif d’aider les gens avec leur prise de parole, car il n’est pas donné à tous d’être naturellement sûrs d’eux lorsqu’ils s’expriment ». L’entrepreneur a collaboré avec le Centre de développement et de recherche en intelligence numérique (CDRIN) pour développer le spectre de la communication non verbale, soit l’analyse des expressions faciales.

« Chaque prise de parole est analysée dans son ensemble sur le plan verbal et sur celui des expressions du visage, puis reçoit un score. Il ne s’agit pas d’une note comme on pourrait en recevoir une à l’école, mais d’un score mesurant le niveau d’attention qu’aurait eu votre audience. Par exemple, un score de 90 % voudra dire que l’audience a somme toute été captivée. »

Un biais discriminatoire

Malgré ses bénéfices et avancées, la solution rencontre un défi qui n’est pas étranger aux développeurs en vision artificielle : le biais discriminatoire dû à l’imperfection de la data quant à sa représentation de la diversité. « On avait fait un test pendant une rencontre d’équipe avec un algorithme de vision artificielle, et ça m’a identifiée comme étant un homme de 28 ans, selon la morphologie du visage, la distance entre les yeux, entre le nez et la bouche », explique la directrice générale du CDRIN, Isabelle Cayer. « Il y a des biais à plusieurs niveaux, notamment quant à la couleur de la peau et de la morphologie. Ça peut faire des biais de genre, des biais ethniques, si l’on n’a pas un jeu de données qui est représentatif du public cible. »

Sur le même thème :

Crédit Image à la Une : cottonbro, Pexels