PARIS 2024 : des Jeux Olympiques sous haute surveillance… au nom de la sécurité

PARIS 2024 : des Jeux Olympiques sous haute surveillance… au nom de la sécurité

Au Québec comme au Canada, la reconnaissance faciale reste un sujet sensible. Pendant ce temps, la France entend se doter de vidéosurveillance « intelligente » pour les Jeux Olympiques qui se dérouleront du 24 juillet au 8 septembre 2024 sur tout le territoire. Cette disposition, contenue dans un projet de loi relatif aux Jeux olympiques et paralympiques (JOP) de 2024, vient d’être largement adoptée par les parlementaires français. Pourtant, elle est déjà très décriée par la Gauche et les associations de défense des libertés, qui y voient le prélude à la reconnaissance faciale et à ses dérives autoritaires.

« À situation exceptionnelle, moyens exceptionnels », a justifié le ministre français de l’Intérieur, Gérald Darmanin à propos de la vidéosurveillance algorithmique. L’article 7 du projet de loi autorise, de la promulgation de la loi et jusqu’au 31 décembre 2024, et « à titre expérimental », le recours à la vidéosurveillance « intelligente » en vue d’assurer la sécurité des manifestations sportives, récréatives ou culturelles.

Les images de surveillance captées par des caméras ou des drones, seront analysées en temps réel par une intelligence artificielle. Objectifs ? Détecter des mouvements de foule et les goulets d’étranglement, des colis abandonnés, des départs de feu ou d’éventuelles armes lourdes. Agnès Canayer, sénatrice et rapporteure de la loi au Sénat, décrypte : « Eu égard au risque terroriste encore très élevé et à l’ampleur de cet événement inédit, cette expérimentation est utile. »

« Eu égard au risque terroriste encore très élevé et à l’ampleur de cet événement inédit, cette expérimentation est utile. »

– Agnès Canayer, sénatrice française

Si le gouvernement français a exclu tout recours à la reconnaissance faciale, suivant les recommandations de la CNIL (Commission nationale de l’informatique et des libertés – Autorité administrative indépendante française), les détracteurs du projet de loi y voient pourtant un «cheval de Troie législatif visant à faire passer un cap vers une société de surveillance généralisée.»

Le 7 mars2023, 38 organisations de la société civile, ont publié une lettre ouverte dénonçant « la vidéosurveillance algorithmique intrusive ». Frederike Kaltheuner, directrice de la division Technologie et Droits humains à Human Rights Watch, ajoute : « Elle augmenterait le risque de discrimination raciale dans l’application de la loi et constituerait un pas de plus vers la normalisation de mesures de surveillance exceptionnelles sous prétexte d’assurer la sécurité lors de grands événements. »

«La vidéosurveillance algorithmique constituerait un pas de plus vers la normalisation de mesures de surveillance exceptionnelles sous prétexte d’assurer la sécurité lors de grands événements. »

– Frederike Kaltheuner, directrice de la division Technologie et Droits humains à Human Rights Watch

La défenseure des droits (autorité administrative indépendante française), Claire Hédon, a rappelé que « la détection de comportements dits anormaux se fondait sur des données biométriques. L’algorithme va permettre de reconnaître des personnes, sans nécessairement les identifier. »

L’EUROPE VA-T-ELLE INTERDIRE LA SURVEILLANCE BIOMÉTRIQUE ?

En Europe, une quarantaine d’eurodéputés ont réagi à l’adoption de la loi française et s’inquiètent du « risque d’entrer en conflit avec la loi européenne en cours de négociation » à venir sur l’intelligence artificielle. Ils estiment qu’il « existe une majorité favorable (à Bruxelles) à une interdiction stricte de la surveillance biométrique de masse ».

Cette course contre la montre pourrait bien mettre la France en porte-à-faux sauf si les débats européens s’éternisent, ce qui n’est pas exclu. C’est l’avis des parlementaires de la Majorité présidentielle qui veulent « protéger les Jeux olympiques et assurer la sécurité de ceux qui y assisteront ».

LA DÉRIVE ASSUMÉE DES RÉGIMES AUTORITAIRES

Les régimes autoritaires ne s’encombrent pas des doutes des citoyens, bien au contraire !

En Iran, les autorités gouvernementales ont indiqué en septembre dernier, dans un contexte de manifestations régulières, que la technologie de reconnaissance faciale était utilisée “pour identifier les mouvements inappropriés et inhabituels” y compris “le non-respect des lois sur le hijab.”

crédit photo: Tiandy

Les dissidents et les femmes non voilées sont repérés dans l’espace public, identifiés et reçoivent une amende s’ils enfreignent les lois, voire sont arrêtés. Les visages sont repérés grâce à une base de données d’identité nationale.

En effet, depuis 2015 l’Iran dispose de toutes les données biométriques des Iraniens (visage inclus), utilisées pour les cartes d’identité.

Selon IPVM, une autorité américaine indépendante en matière de technologie de sécurité physique, c’est l’entreprise chinoise Tiandy qui fournit une partie de la technologie de reconnaissance faciale aux Gardiens de la révolution, à la police et à l’armée en Iran.

La Chine reste le champion de la surveillance par reconnaissance faciale, et il s’accompagne d’un système de crédit social. La technologie controversée a également été utilisée pour repérer les malades de la Covid-19 récalcitrants.

LA RECONNAISSANCE FACIALE ET LA CHARTE DES DROITS ET LIBERTÉS

Dans nos démocraties, la reconnaissance faciale reste un sujet sensible. L’argument sécuritaire se heurte au principe des droits et libertés. Le Canada ne fait pas exception à la règle.

En 2021, un rapport d’enquête déposé au Parlement par le commissaire à la protection de la vie privée du Canada, Daniel Therrien, révèle que la Gendarmerie Royale du Canada (GRC) a utilisé un logiciel controversé de reconnaissance faciale « Clearview AI », ce qui constitue une « violation grave et directe » des droits des Canadiens. « Les pratiques de Clearview représentent une surveillance de masse, ce qui est illégal. », expliquait alors Daniel Therrien.

D’ailleurs en 2020, un rapport de l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (de l’Université Laval), suggère que le recours à la reconnaissance faciale peut potentiellement violer plusieurs articles de la Charte canadienne des droits et libertés et de la Charte québécoise des droits et libertés de la personne.

UN DOSSIER SENSIBLE AU QUÉBEC

Les Québécois ne sont pas plus enthousiastes à se prêter à l’exercice de la reconnaissance faciale.

Selon une étude menée par Capterra Canada en 2022, seuls 24% des Québécois sont prêts à partager leurs données biométriques avec des institutions publiques.

Les répondants préfèrent utiliser l’empreinte digitale pour s’identifier (59%), même s’ils sont 35% à s’identifier régulièrement avec la reconnaissance faciale (principalement sur un téléphone cellulaire).

Seuls 24% des Québécois sont prêts à partager leurs données biométriques avec des institutions publiques

– Étude Capterra Canada 2022

Début avril, devant les couacs retentissants de SAAQclic, la ministre des Transports, Geneviève Guilbault, suspend le projet de reconnaissance faciale à la SAAQ. « Considérant les délicats enjeux de perception et de confiance de nos citoyens envers nos organisations publiques, je vous demande de suspendre dès maintenant toute procédure ou activité en rapport avec le recours à une solution de reconnaissance faciale », a justifié Mme Guilbault.

Le député péquiste de Matane-Matapédia, Pascal Bérubé, est circonspect: «Ce n’est pas rassurant, et la reconnaissance faciale, moi, je suis convaincu qu’il y a bien des Québécois, aujourd’hui, qui sont inquiets.»

Sur le même thème :

https://www.cscience.ca/2023/02/22/reconnaissance-faciale-air-canada/

https://www.cscience.ca/2022/10/05/encadrement-legal-pour-la-reconnaissance-faciale-le-debat-est-relance/

Crédit Image à la Une : Paris 2024 / Mairie de Paris