Quand les réseaux de neurones cachent des chevaux de Troie

Des scientifiques de l’Université de Cornell aux États-Unis ont publié, récemment, une étude dans laquelle ils démontrent la possibilité de remplacer une partie du code d’un réseau de neurones par un logiciel malicieux. En clair, certains modèles d’IA peuvent désormais être infectés par des malwares

Le monde de la cybersécurité ne sera plus jamais le même depuis l’arrivée de l’intelligence artificielle (IA). Les algorithmes d’IA peuvent aider à combattre les attaques contre les systèmes informatiques, mais aussi à créer des virus encore plus dévastateurs.

Ainsi, une application que vous utilisez couramment pourrait éventuellement cacher un cheval de Troie, un logiciel pirate qui exécute des commandes à votre insu.

Pis encore, les réseaux de neurones s’appuyant sur un modèle d’IA inspiré du système nerveux pourraient cacher des malwares sans qu’ils soient détectables par un antivirus.

C’est le type de scénario qu’entrevoient des scientifiques de l’Université de Cornell aux États-Unis, qui, dans une étude récemment publiée, ont démontré comment remplacer une partie du code d’un réseau de neurones par un logiciel malicieux sans que la structure même du modèle d’IA ne soit significativement changée.

« Au fur et à mesure que le malware est désassemblé dans les neurones, ses caractéristiques ne sont plus disponibles, ce qui peut échapper à la détection par les moteurs antivirus courants (NDLR : traduit de l’anglais) » Auteurs de l’étude EvilModel: Hiding Malware Inside of NeuralNetwork Models

PRESQUE INDÉTECTABLE

Processus expliquant la contamination d'un réseaux de neurones avec un malware.

Graphique expliquant le processus de contamination d’un réseau de neurones avec un malware. Crédit image: Cornell University

Ceux-ci ont été en mesure de cacher un malware d’une taille de 36,9 mégaoctets dans un modèle de réseau de neurones AlexNet de 178 mégaoctets sans en affaiblir grandement l’efficacité [une perte de précision ne dépassant pas 1%].

De plus, des engins de détection de virus comme VirusTotal n’ont pas su déceler la menace enchâssée dans l’IA, ce qui rend ce type de logiciel malicieux encore plus pernicieux.

C’est la grande capacité d’adaptation des réseaux de neurones qui offre cette opportunité aux cybercriminels. En effet, puisqu’ils sont en constant apprentissage, une partie de leur code peut être transformée sans trop en amoindrir le résultat.

Les auteurs croient que pour l’instant, seuls des professionnels du milieu de l’IA seraient capables de contrecarrer un malware conçu de la sorte.

Le risque lié à de tels chevaux de Troie pourrait grandir dans l’avenir prochain, puisqu’un nombre croissant d’applications fait appel à l’IA.

« Avec l’application généralisée de l’IA, l’utilisation de réseaux de neurones pour les attaques informatiques devient une tendance qu’il faut anticiper. Nous espérons que ce travail pourra fournir un scénario de référence pour prévenir ces attaques opérées par réseau de neurones », concluent les auteurs de l’étude.

Crédit photo: Pexels / Tima Miroshnichenko