L’IA pourrait prévenir des fusillades

Le mois dernier, une fusillade ayant fait 10 victimes et autant de blessés a braqué les projecteurs sur un supermarché de Boulder au Colorado. L’homme était équipé d’un fusil d’assaut de type AR-15 et la question du contrôle des armes à feu a refait surface. Et si l’IA pouvait apporter de nouvelles perspectives en ciblant la motivation derrière les gestes posés?

À travers le battage médiatique, quelques journalistes locaux ont mentionné le fait qu’une jeune pousse du Colorado, NeverAgainTech, avait prédit une recrudescence de fusillades vers la fin de la pandémie aux États-Unis. L’organisme sans but lucratif utilise l’intelligence artificielle pour détecter des signaux d’alerte sur le Web avant qu’une fusillade ne fasse d’autres victimes.

LA PROBLÉMATIQUE

Entre 2000 et 2013, le Federal Bureau of Investigation (FBI) a étudié 160 cas d’attentats impliquant des tireurs actifs aux États-Unis (Blair et Schweit 2014). C’est près de 12 fusillades par année. Les principales conclusions de l’étude du FBI ont permis de tracer le portrait type d’un tireur de masse :

  • L’auteur est de genre masculin, dans 96 % des cas
  • Il vise les établissements d’enseignement ou un commerce, dans 70 % des cas
  • Il agit seul, dans 99 % des cas
  • Il commet un suicide dans 40 % des cas. Suicide avec intention hostile (Preti 2008).

Une autre étude des services secrets américains et du département d’Éducation a démontré qu’avant une fusillade dans une école [i] :

  • L’auteur a souvent communiqué son intention à des pairs tiers. Comme dans les cas de Virginia Tech et de Columbine au Colorado.
  • Il a souvent adopté un comportement avant de passer à l’acte qui a inquiété son entourage (ex. recherche d’armes, écrits dérangeants).
  • Il a souvent envisagé ou tenté de se suicider dans le passé.
UN ENJEU PSYCHOSOCIAL DÉTECTABLE ?

Tous les auteurs de fusillades ne sont pas identiques dans leurs motivations et leur psychologie. Contrairement aux idées reçues, les facteurs contribuant au meurtre de masse sont rarement des facteurs purement biologiques, c’est-à-dire liés à des maladies psychiatriques telles que la dépression majeure et la psychose). La maladie mentale serait en cause dans seulement 3 % des cas (Marzuk et al. 1992). [ii]

Les études de cas individuelles révèlent toutefois des thèmes paranoïaques dans les pensées cognitives de ces personnes, même sans psychose (Knoll et Meloy 2014). Beaucoup sont tourmentés par des sentiments de persécution, de rejet social ou d’aliénation sociale. La tuerie de Springfield, Oregon, en 1998 en est un exemple (Frontline 2000).

Les auteurs de fusillade ont généralement passé beaucoup de temps à entretenir du ressentiment et à ruminer les humiliations passées. Ces ruminations évoluent ensuite vers des fantasmes de vengeance violente (Mullen 2004) qui peuvent s’exprimer sur le Web.

Les facteurs sociaux (isolement, ostracisme possible par les pairs et absence de soutien social, propagande haineuse) aggravent alors les facteurs psychologiques individuels d’image de soi négative ou fragile, de dynamique paranoïaque, d’insécurité financière et de repli sur des fantasmes de vengeance violents sans borne (Aitken et al. 2008).

MONITORER LES DISCOURS HAINEUX

Shreya Nallapati a fondé NeverAgainTech dans le but de prévenir d’autres fusillades comme celle de l’école Marjory Stoneman Douglas, ayant fait 17 morts et autant de blessés dans l’État de la Floride en 2018.

« Les simulations de fusillade étaient si fréquentes à mon école qu’on aurait dit qu’elles faisaient partie du programme. »
– Shreya Nallapati, fondatrice de NeverAgainTech

Elle explique que l’intention d’origine de NeverAgainTech était de mieux comprendre les profils des auteurs d’attentat à travers leur utilisation des réseaux sociaux pour identifier le prochain meurtrier de masse dans les heures qui précèdent le drame, s’il se confiait à quelqu’un.

Mais à cause des risques d’erreurs et de faux négatifs et parce que certains auteurs de fusillade cristallisent leur colère au sein de groupes radicaux, NeverAgainTech s’est rapidement tourné vers la recherche d’une meilleure compréhension de la culture et de l’idéologique de la violence.

L’idée n’est plus de prédire qui sera le prochain tireur fou, mais ce qui pourrait conduire, d’un point de vue idéologique, à l’émergence d’un massacre ou au passage à l’acte.

« Notre travail est de comprendre comment l’idéologie change avec le temps et quand l’idéologie est actionnée » – explique Shreya Nallapati.

LA RECONNAISSANCE DU LANGAGE

« Beaucoup de chercheurs essayent d’utiliser la reconnaissance des images pour détecter des armes sur les gens, juste avant qu’ils ne s’en servent dans un espace public. Connaissant les limites et les biais de l’IA dans le domaine de la surveillance de masse, nous avons choisi de travailler sur l’évolution des idéologies dans le temps pour savoir quels patterns dans le langage utilisé, nous pouvions détecter », explique Shreya.

« Je pense que le « I » dans IA tient pour intention plus que pour intelligence, dit-elle. Avoir un but en déployant la solution, c’est essentiel. Ce sont des systèmes qui peuvent penser comme un humain et nous pouvons utiliser leur force pour arriver à de meilleures décisions pour le futur. »

En 2019, son équipe a créé une méthode de clustering (algorithme de regroupement) pour regrouper les points communs de différents éléments du Web. Elles étaient 200 informaticiennes à l’origine pour analyser des rames de données du passé, discerner des modèles et prédire des comportements violents.

LA PROMESSE DE L’IA

Pour NeverAgainTech, les résultats sont encourageants. Shreya Nallapati affirme avoir détecté les signaux identitaires précurseurs de trois fusillades aux États-Unis avant qu’elles ne surviennent. À partir d’un manifeste ou d’échanges sur des forums marginaux, son équipe a prédit des épicentres de violence.

Le FBI a déjà la technologie pour surveiller manuellement les réseaux sociaux et les communautés en ligne, mais l’IA les intéresse parce qu’elle apporte le concept d’automatisation.

« Sans rentrer dans les détails, nous avons transmis ces informations au FBI et aux autorités locales » – souligne Shreya Nallapati.

Les techniques de l’apprentissage machine servent à scruter les idées extrémistes et certains éléments de marginalisation (social outcast) et à détecter un changement de discours, une anomalie, avant que l’action ne survienne. 

« Nous analysons les données historiques sur la violence armée en fonction de facteurs tels que le statut socio-économique de l’auteur et la disponibilité des armes à feu dans l’État touché. Nous implémentons ensuite des analyses prédictives dans des logiciels tels que Tableau pour déterminer la probabilité ou la prévalence de la prochaine attaque », explique-t-elle.

La jeune entrepreneure sociale et son réseau de vingt personnes issues des TI, du gouvernement et du milieu des affaires monitorent actuellement le « semi-dark web » – plus précisément des groupes marginaux comme 8kun (anciennement connu sous le nom de 8chan) et 4chan qui perpétuent des rhétoriques haineuses, en plus des plateformes de diffusion ouvertes comme Twitter/Instagram et des forums de discussion.

Elle fait remarquer que trois des plus grandes fusillades de masse de 2019 ont commencé avec la perpétuation des idéologies extrémistes révélée par des manifestes.  

« 8kun est devenu notoire l’année dernière comme un moyen de répandre les manifestes de plusieurs auteurs de fusillades de masse, et malgré son démantèlement, le langage reste dans les fils du Web », raconte-t-elle.

«Les communautés asiatiques émergent, en ce moment, comme une nouvelle cible potentielle à surveiller.»
– Shreya Nallapati, fondatrice de NeverAgainTech

LE PRINCIPAL DÉFI

« Il y a un grand volume d’échanges dans les coins obscurs du Net où de futurs assaillants se réfugient et se renforcent dans leur conviction. Il est parfois difficile de reconnaitre, si ce qui y est écrit ou dit rentre dans la catégorie des blagues ou s’il s’agit d’une menace potentielle. »

« Sans décider pour l’humain, l’IA peut venir diminuer le bruit et soumettre à un humain les menaces les plus sérieuses. »
– Shreya Nallapati, fondatrice de NeverAgainTech

L’algorithme de classification (haine vs non haineux) de NeverAgainTech serait efficace à 88 % pour détecter la probabilité d’une menace sur une base de données historique.

UN CONTEXTE FAVORABLE

Tandis que Maison-Blanche prépare des décrets sur le contrôle des armes à feu, dont un pour renforcer le système de vérification des antécédents, d’autres solutions faisant appel à l’intelligence artificielle voient le jour aux États-Unis pour neutraliser les fusillades, avant qu’elles ne surviennent.

Pour Shreya Nallapati, il s’agit d’un problème qui perdure et il faut utiliser la technologie pour trouver des approches complémentaires.

« Avec le changement d’administration, nous constatons une plus grande inclinaison en faveur de la prévention de l’extrémisme en ligne. » – Shreya Nallapati, fondatrice de NeverAgainTech

LES DÉRIVES POSSIBLES

Le Québec a connu des épisodes de violence et des fusillades marquantes comme celle de l’École polytechnique de Montréal en 1989, de l’Université Concordia en 1992 ou de la grande mosquée de Québec en 2017. Il sera intéressant de voir si les solutions proposées par NeverAgainTech feront écho ici pour agir en prévention.

Le danger étant de s’enfermer dans une logique de prévention précriminelle comme dans le film Minority Report (sanctionne du crime avant qu’il ne soit commis).

« La vision à long terme de NeverAgainTech ne vise plutôt de bâtir des plateformes neutres. Nous aimerions démanteler la boite noire de la violence par les armes à feu aux États-Unis », ajoute Shreya.

En implantant l’intelligence artificielle, il faut néanmoins considérer les enjeux éthiques, sociaux et politiques des solutions qui corrigent un problème pour ne pas en créer d’autres. Internet a fait de nous des « individualistes connectés » (pour le meilleur et pour le pire), mais quelles seraient les conséquences de l’aseptiser en 2021 ? Que feront les protagonistes haineux privés d’un espace pour débattre et ventiler ? Historiquement, la censure n’a pas fait que des bons coups.

 

[i] The U.S. Secret Service and the U.S. Department of Education conducted a study focused on targeted school violence in the United States from 1974 to 2000 (Vossekuil et al. 2002).

[ii] Source : Mass Shootings and Mental Illness, James L. Knoll IV, M.D. George D. Annas, M.D., M.P.H., publié dans le American Psychiatric Association Publishing, en 2016.

Laisser une réponse

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *