ONU : Le premier cas de robot tueur rapporté

Un « robot tueur » a peut-être fait ses premières victimes sur un champ de bataille. Du moins, c’est ce que laisse croire un rapport publié en mars dernier par l’Organisation des Nations Unies à propos du conflit armé en Libye.

Cette arme létale autonome, un drone Kargu-2 de confection turque, avait été utilisée en 2020 par le gouvernement de Tripoli contre les forces du maréchal Khalifa Haftar, et ce, dans le contexte de la deuxième guerre civile libyenne.

Le document de l’ONU ne révèle pas si l’appareil est parvenu à tuer ses cibles, encore moins si une attaque aurait été menée de façon complètement autonome grâce aux algorithmes.

Toutefois, c’est la première fois que l’on voit apparaître ce genre d’engins dans une zone de conflit armé, et sa venue annonce une nouvelle ère dans le monde militaire.

Le Kargu est un robot flâneur (loitering), qui est capable de détecter et d’identifier les mouvements au sol et d’attaquer de façon autonome une cible potentielle en se dirigeant à grande vitesse vers celle-ci, détonnant ensuite un dispositif explosif et propulsant des éclats d’obus.

Son fabricant, STM, indique que le drone est « idéal pour les conflits asymétriques et les opérations antiterroristes ». L’armée turque possèderait-elle aussi des Kargu dans son inventaire, selon le manufacturier.

INÉVITABLE?

Pour Michel Fortmann, chargé de cours et professeur honoraire au Département de science politique de l’Université de Montréal, l’arrivée de ce type d’arme autonome dans les zones de conflit fait partie d’une tendance qui dure depuis plusieurs décennies.

« Ça ne surgit pas de nulle part. De telles armes sont le résultat de la Révolution dans les affaires militaires. Avec les technologies de l’information, il y a ce désir et cette capacité dans les systèmes militaires de développer des armes plus efficaces et dotées d’une haute précision », souligne-t-il.

Ainsi, les drones de reconnaissance qui ont survolé les montagnes afghanes et les le désert iraquien dans les années 2000 sont un peu l’ancêtre du Kargu.

« Les soldats coûtent de plus en plus cher et ça fait des années qu’on réduit la taille des armées. En contrepartie, le poids des technologies dans le domaine militaire ne cesse de croître » -Michel Fortmann, chargé de cours, département de science politique, UdeM

Il y a donc déjà une forme d’autonomie algorithmique qui s’est instaurée dans les armées autour du monde.

Toujours à la recherche de plus d’informations sur leurs opposants, les corps militaires utilisent des appareils de reconnaissance qui sont capables de collecter de grandes quantités de données sur l’ennemi.

« Le passage du Rubicon, ce moment charnière qui changera complètement les affaires militaires, adviendra lorsque les machines auront une véritable autonomie sur le champ de bataille. Pour l’instant, il y a encore quelqu’un pour pousser sur le bouton », croit M. Fortmann.

UN MORATOIRE NÉCESSAIRE

De son côté, France-Isabelle Langlois, directrice générale pour Amnistie internationale Canada croit qu’il faut absolument interdire les robots tueurs.

« Depuis 2014, nous demandons un moratoire sur l’utilisation et le développement de telles armes. Aussi performant qu’un robot puisse être, il ne sera jamais en mesure de juger la signification morale d’un ordre de tuer; il ne fera jamais la différence entre le bien et le mal », insiste-t-elle.

Cette dernière s’inquiète aussi des risques de « dommages collatéraux » qui pourraient survenir à cause de l’emploi d’armes autonomes, un euphémisme selon elle qui ne signifie rien d’autre que la perte de vies humaines civiles.

« Pensez à ceux qui développent ces technologies : les américains, les israéliens. Il est inévitable que les fabricants transmettent, volontairement ou non, leurs biais dans les algorithmes. Une fois qu’on sait cela, comment croyez-vous que seront identifiées les cibles dans un effort antiterroriste? Les terroristes ne risquent-ils pas souvent d’avoir « l’air » arabes? » – France-Isabelle Langlois, directrice générale, Amnistie internationale Canada

Plusieurs chercheurs se sont aussi opposés au développement de ce type d’armes, incluant Yoshua Bengio et Pascal Vincent, chercheurs au Mila. Ceux-ci avaient signé une pétition contre les robots tueurs en 2018.

Pour sa part, M. Fortmann, qui s’est intéressé à la menace et au désarmement nucléaire durant la Guerre froide, croit qu’il est trop tard pour stopper la tendance.

« On ne remettra pas le génie dans la bouteille, parce qu’on n’arrête pas la technologie. Toutefois, comme dans le contexte du nucléaire, si les citoyens prennent conscience du problème des armes autonomes, peut-être que des changements seront possibles », affirme celui-ci.