[ANALYSE] La reconnaissance faciale comme arme de guerre en Ukraine

[ANALYSE] La reconnaissance faciale comme arme de guerre en Ukraine

La technologie de reconnaissance faciale s’introduit dans les zones de guerre pour identifier l’ennemi. Une initiative qui risque de devenir la norme.

Selon Reuters, cette technologie pourrait être utilisée pour « réunir les réfugiés séparés de leurs familles, identifier les agents russes et aider le gouvernement à démystifier les faux messages sur les réseaux sociaux liés à la guerre. » Cette technologie aide également à faire correspondre les empreintes digitales et fonctionne même s’il y a des dommages au visage.

LE LOGICIEL CLEARVIEW AI

La société privée Clearview AI, spécialisée en reconnaissance faciale, est basé à New York. Sa mission est de fournir une technologie avancée aux forces de l’ordre, pour enquêter sur les crimes, améliorer la sécurité publique et rendre justice aux victimes.

Le logiciel extrait des milliards d’images des réseaux sociaux pour créer un moteur de recherche de visages. Ce moteur de recherche est ensuite utilisé par les services de police. Clearview AI offre ainsi une plate-forme qui comprend « un réseau facial de plus de 10 milliards d’images faciales provenant d’Internet, des médias d’information, des sites de photos d’identité, des médias sociaux publics et d’autres sources ouvertes (Open source)» 

D’après Reuters, Clearview AI entraîne l’IA à « appliquer des masques, des lunettes et d’autres distorsions aux images, ce qui lui permet de reconnaître les visages lorsqu’ils sont masqués, de profil, en arrière-plan ou 20 ans plus jeunes. »

Un logiciel controversé pour sa collecte de données

Cependant, son utilisation est critiquée depuis des années par les défenseurs de la vie privée. Cette collecte des données étendue pose problème. D’ailleurs, plusieurs pays, dont la France et le Canada, ont interdit son usage. Il a fait également l’objet d’une enquête par le New York Times.

Or, selon la journaliste Parmy Olson du TheJapanTime, « Clearview vient d’offrir au gouvernement ukrainien un accès gratuit à son réseau pour aider à conjurer l’invasion russe. » Parmy Olson ajoute que Reuters a rapporté que les soldats ukrainiens pourraient utiliser cette technologie pour éliminer les soldats russes.

« Sur la base de données Clearview, plus de 2 milliards de visages proviennent du média social Russe: Vkontakte. »

– Parmy Olson du TheJapanTime

Alors même que ses tactiques de collecte de données ont conduit à des avis de retrait de Facebook, Google et Twitter, « l’entreprise a récemment déclaré aux investisseurs que sa base de données faciale serait multipliée pour atteindre 100 milliards d’images. »

La reconnaissance faciale fait des erreurs

L’erreur n’est pas qu’humaine, malheureusement l’erreur machine existe. Or, la gravité d’une arrestation injustifiée scandalise. Imaginons ce que ça représente en zone de guerre! Les conséquences visent la vie et la mort.

« Une inadéquation pourrait entraîner la mort de civils, tout comme des arrestations injustes ont résulté de son utilisation par la police. »

Albert Fox Cahn, directeur général du Surveillance Technology Oversight Project à New York.

Il poursuit ainsi: « Nous allons voir une technologie bien intentionnée se retourner contre eux et nuire aux personnes mêmes qu’elle est censée aider. »

Ukraine

Crédit photo: Unsplash

Parmy Olson rappelle que les utilisateurs de première ligne de la reconnaissance faciale ne l’utilisent souvent pas correctement. « Une étude britannique sur la façon dont la police de Londres a utilisé la technologie pour repérer les criminels présumés dans les rues, a révélé que les agents avaient tendance à être d’accord avec tout ce que le logiciel suggérait. Même dans les cas où la police n’était pas certaine de la correspondance d’un visage, à une photo d’identité, elle supposait que la correspondance était exacte, car le logiciel l’affirmait. »

De plus, d’après la journaliste, « il est difficile d’imaginer des soldats adoptant une approche plus nuancée au milieu de la pression visant à protéger les villes assiégées, et avec peu ou pas de formation sur la façon d’utiliser de tels logiciels. »

Un engagement en faveur de l’Ukraine

D’après les journalistes Paresh Dave et Jeffrey Dastin de Reuters, « Clearview a déclaré qu’elle n’avait pas offert la technologie à la Russie. » Par ailleurs, l’entreprise qualifie ses actions en Ukraine d’opération spéciale. De plus, Clearview aurait une plus grande précision que les outils concurrents, selon une évaluation du gouvernement américain l’année dernière.

Or, selon Samuel Bendett, conseiller au Center for Naval Analyses, le gouvernement russe utilise également des technologies d’intelligence artificielle. Cet intérêt russe pour l’intelligence artificielle renforce d’ailleurs l’incitation à un partenariat russo-chinois pour faciliter le développement de nouvelles technologies. Rappelons que la Chine, elle-même, utilise déjà la technologie de reconnaissance faciale pour cibler et profiler spécifiquement la minorité ethnique ouïghoure.

« L’utilisation de cette technologie dans un contexte de guerre est sans précédent »

Organisation Privacy International

De plus, « Clearview n’a donné aucune assurance quant à savoir s’ils ont pris en compte les risques. Car, même les garanties les plus prudentes que nous puissions établir, en temps de paix et de stabilité, disparaissent face à l’anarchie et à l’imprévisibilité de la guerre. »

En effet, d’après Albert Fox Cahn: «une fois que vous introduisez ces systèmes et les bases de données associées dans une zone de guerre, vous n’avez aucun contrôle sur la façon dont ils seront utilisés. » Les individus et les gouvernements doivent donc rester conscients des dangers potentiels de l’utilisation de l’intelligence artificielle dans les zones de guerre.

 

BIBLIOGRAPHIE

Burt, Chris. (2022). Clearview AI facial recognition being used to deliver news of Russian war dead to families. BiometricUpdate.com

Dave, Paresh et Dastin, Jeffrey . (2022). Exclusive: Ukraine has started using Clearview AI’s facial recognition during war. Reuters.

Olson, Parmy. (2022). Bringing facial recognition to war is a bad idea. It’s hard enough for police to use such technology responsibly, it would be even harder for soldiers on the battlefield. The Japan times.

Privacy International. (2022). The Clearview/Ukraine partnership – How surveillance companies exploit war.

The New York Times. (2022). Facial Recgognition goes to war.

Crédit Image à la Une : Unsplash