AI SPIT Model – Un logiciel traitant de sécurité et de transparence à l’intérieur des systèmes d’IA

Mme Gupta propose une approche systématique et holistique en éthique appliquée de l’intelligence artificielle. L’application qu’elle a bâtie permet d’assurer à la fois, la sécurité, la confidentialité des données, l’intégrité et la transparence, dans la construction des systèmes d’intelligence artificielle.

Mme Gupta, diplômée du MIT (Massachusetts Institute of Technology), est présidente et fondatrice de l’entreprise OutSecure qui se spécialise en cybersécurité. Depuis plus de 20 ans, Pamela Gupta conseille des multinationales dans la définition de leur stratégie en programmes de sécurité. Elle a une formation en intelligence artificielle, en sécurité de l’Internet des Objets (IoT) et en intégration de la sécurité dans la conception de programmes.

« En affaires, nous dit-elle, il faut savoir anticiper et anticiper de nouveau, sans relâche ». La mission principale de son entreprise est donc de créer des logiciels de sécurité aidant les clients à anticiper et à gérer efficacement leurs risques. 

Ses services sont spécialisés dans l’identification des expositions aux risques de bris de cybersécurité actuels pour les entreprises et pour les technologies émergentes dans l’Internet des Objets (IoT) et l’IA. Elle a tout récemment lancé son application AI SPIT Model qui offre une approche holistique en cybersécurité. CScience IA a rencontré la fondatrice pour en savoir davantage sur cette application. 

CScience IA : À QUOI RENVOIE LE MODÈLE SPIT ?

« Les systèmes d’intelligence artificielle nécessitent une approche différente. Elle doit inclure dans ses systèmes, les méthodes de sécurité traditionnelles, telles que le contrôle d’accès, et beaucoup plus ». Mme Gupta nous propose un modèle qui vise 4 composantes critiques dans le cadre du processus de construction. Sécurité, confidentialité, intégrité et transparence sont les aspects déterminants de son système. Ils sont les éléments clés qui nous assurent d’avoir des systèmes sûrs et résilients avec des résultats en lesquels nous pouvons avoir entièrement confiance.

« S » pour SÉCURITÉ. Les systèmes intelligents doivent être cyber-résilients avec des modèles de risques efficaces qui vont au-delà de la protection des données de formation ou de l’infrastructure elle-même.

« P » pour PRIVACY (vie privée). Les systèmes intelligents, par leur nature, sont capables de déduire et de construire des données. Comment fonctionnent-ils vraiment? Il existe une zone grise au sein même de la construction des données. « L’obscurcissement (anonymisation) des données ne permet pas d’offrir un contrôle efficace sur la confidentialité des données », nous précise Mme Gupta.

« L’anonymisation des données ne permet pas d’offrir un contrôle efficace de leur confidentialité ».

Pamela Gupta

« I » pour INTÉGRITÉ des données. Il faut contrôler les algorithmes contre la corruption et les biais. L’équité et l’absence de discrimination sont nécessaires dans toute construction de systèmes en IA. Le traitement des données doit être effectué pour respecter les intérêts de la personne concernée et ne pas permettre la discrimination.

Le phénomène des algorithmes biaisés dans les systèmes d’intelligence artificielle est connu. Cela n’est plus un secret pour personne. On observe des systèmes d’IA qui font souvent preuve de discrimination raciale, sexuelle, sanitaire, religieuse ou encore idéologique, nous précise Pamela Gupta.

« T » est pour TRANSPARENCE. La transparence et le droit à l’information sont essentiels à nous tous. L’intelligence artificielle n’est pas vraiment transparente. Elle est une boîte noire, en grande partie. On ne sait pas toujours comment elle prend les décisions qu’elle prend. C’est ce qui rend impossible l’explicabilité de processus compliqués d’une IA à un utilisateur de tous les jours.

La question de la responsabilité se pose encore.

CScience IA : QUELLE INDUSTRIE DEVRAIT UTILISER LE MODÈLE SPIT?

«Il s’agit d’un modèle agnostique de l’industrie ! » nous répond sans hésitation, Mme Gupta. Nous comprenons ici qu’elle parle d’un modèle qui est sceptique par nature et qui remet en question tout type d’industrie par principe.

Dans la vidéo suivante, Pamela Gupta analyse 5 mythes à éliminer en cybersécurité :

De plus, l’application SPIT Model est holistique. Pour cela, elle traite les données tout au long du processus de conception du système en IA. Cette approche permet d’apporter un contrôle sur la qualité des données à l’intérieur du cycle de vie des données, par exemple, en ce qui a trait aux données entrantes et aux données sortantes.

CScience IA : COMMENT VOTRE APPLICATION RÉPOND-ELLE AU CARACTÈRE ÉVOLUTIF DE L’IA?

Il s’agit d’un modèle de gouvernance de l’IA totalement complet et qui comprend 6 phases:

  1. Acquérir une compréhension de l’entreprise ;
  2. Acquérir une compréhension des données ;
  3. Préparez les données ;
  4. Modélisation complète ;
  5. Évaluer ;
  6. Déployer.

L’étape de modélisation est l’étape principale pour la mise en place de l’aspect évolutif de l’éthique. C’est à ce moment particulier que les systèmes de transparence sont abordés.

 

CONCLUSION

Alors que l’IA continue de gagner en ampleur, les risques de sécurité sont flagrants, surtout en ce qui a trait aux systèmes d’apprentissages automatiques. Difficile de s’y retrouver. Les entreprises sont prises entre l’arbre et l’écorce. Elles se demandent s’il faut utiliser des processus autorégulateurs ou bien analyser cas par cas les projets en intelligence. Beaucoup de questions se posent. 

On doit considérer toutes les initiatives en faveur d’une technologie assurant à la fois la sécurité et la transparence des systèmes. Dans ce terrain changeant, il vaut mieux être doublement informés.

Laisser une réponse

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *