Les entreprises font davantage confiance à l’IA lorsqu’il s’agit d’assurer leur cybersécurité

Les entreprises font davantage confiance à l’IA lorsqu’il s’agit d’assurer leur cybersécurité

Alors que de nombreux rapports d’études font état d’un retard d’adoption et d’une méfiance généralisée à l’égard des technologies d’intelligence artificielle (IA) dans le milieu des entreprises canadiennes, ces dernières font davantage confiance à l’IA lorsque vient le temps de renforcer leur cybersécurité.

Devant la montée en puissance des cybermenaces au Canada, et la gravité des conséquences financières et opérationnelles qu’en subissent les entreprises, les organisations canadiennes seraient de plus en plus nombreuses à adhérer à l’usage de solutions d’intelligence artificielle pour combattre ce fléau. C’est ce que nous apprend le récent rapport d’une étude annuelle d’IBM sur le coût des violations de données, analysant l’impact financier de plus de 600 brèches survenues entre mars 2023 et février 2024, au Canada.

61 % des entreprises canadiennes ont recours à l’IA pour se protéger

Fournie par IBM

IBM relate que 33 % des cas de violations concernent des données stockées dans plusieurs environnements, tandis que 31 % d’autres se rapportent aux données stockées uniquement dans le nuage public, ces dernières étant les plus coûteuses, avec une moyenne de 6,74 millions $. Selon les conclusions du rapport, les organisations canadiennes paient en moyenne 6,32 millions $ par incident de violation de données en 2024, ce qui indique une diminution par rapport à l’année précédente, dont le montant de la facture s’élevait à 6,94 millions $.

Les organisations qui intègrent des solutions d’IA dans leurs opérations de sécurité auraient ainsi pu réduire en moyenne le cycle de vie des brèches de 42 jours, et les coûts relatifs d’1,70 million $ par rapport à celles qui ne disposaient pas de telles solutions.

61 % des entreprises canadiennes ont désormais recours à l’IA et à l’automatisation pour prévenir et combattre les brèches de sécurité

« Cette amélioration reflète l’efficacité des mesures de sécurité renforcées, puisque presque les deux tiers (61 %) des entreprises canadiennes ont désormais recours à l’IA et à l’automatisation pour prévenir et combattre les brèches de sécurité. »

Un retard d’adoption pour les solutions d’IA en général

Des nouvelles encourageantes pour le secteur de l’intelligence artificielle, si on les compare aux chiffres souvent relayés d’une autre enquête bien connue sur l’adoption de l’IA : l’étude de l’Institut de politique publique The Dais de la Toronto Metropolitan University, financée en partie par le Conseil de l’innovation du Québec, qui indique que « le Canada tire de l’arrière en termes d’adoption de l’IA par rapport aux pays comparables. Seulement 3,7 % des entreprises canadiennes ont déployé l’IA dans leurs activités, quelle qu’en soit la capacité. C’est dans les entreprises de plus de 100 salariés que l’adoption a été la plus rapide tandis que les entreprises qui investissent dans la formation continue de leur main-d’œuvre sont beaucoup plus susceptibles d’avoir adopté des outils d’IA. L’étude démontre que le Québec est la province où le niveau d’adoption de l’IA est le plus élevé (5 %) selon l’Enquête sur la technologie numérique et l’utilisation d’Internet de 2021 de Statistiques Canada. »

Le taux d’adoption de l’IA en entreprise est de 3,7 % au Canada, et de 5 % au Québec

Les chercheurs Ilaria Querci (NEOMA Business School), Luigi Monsurrò (UNIMORE) et Paolo Peverini (LUISS) ont mené une récente étude sur la méfiance entretenue à l’égard des nouvelles technologies, comme celles de l’IA et des objets connectés. Ils attribuent ce manque de confiance à la tendance qu’ont ces technologies d’être « trop humanisées », et identifient trois types de barrières à leur adoption : 1) les barrières dites « fonctionnelles », qui font que « Les utilisateurs trouvent souvent ces objets compliqués à utiliser, coûteux à entretenir, et potentiellement dangereux pour la santé » ; 2) celles dites « psychologiques », qui veulent que « Les consommateurs se questionnent sur la nécessité d’être aidés par un objet plutôt que par un humain et doutent des améliorations réelles apportées à leur quotidien », hésitant à adopter des objets connectés par crainte de perdre le contrôle de leur vie quotidienne ; et 3) les barrières « individuelles », qui se rapportent au fait d’être réfractaire au changement et de préférer la continuité.

L’IA pour lutter contre la désinformation

De gauche à droite: Camille Thibault, étudiante à la maîtrise en science politique à l’UdeM et membre de Mila, Marie-Josée Hébert, Pascale St-Onge, Reihaneh Rabbany, Jean-François Godbout, Zachary Yang, étudiant au doctorat en informatique à McGill et membre de Mila. (Crédit photo : Amélie Philibert, Université de Montréal)

Si les entreprises adhèrent facilement à l’intelligence artificielle pour se protéger contre les cybermenaces, le gouvernement canadien se montre aussi bien décidé à soutenir les projets d’IA visant à lutter contre la désinformation et le cybercrime. La ministre du Patrimoine canadien, Pascale St-Onge, vient d’annoncer l’octroi d’un financement de 292 675 $ à l’Université de Montréal pour soutenir un projet qui lutte contre une autre forme de cybermenace : la désinformation.

« Cet outil de détection soutiendra un environnement médiatique sain, en donnant une information juste à la population canadienne (…) »

– Jean-François Godbout, professeur titulaire au Département de science politique de l’Université de Montréal

Mené en collaboration avec l’Institut québécois d’intelligence artificielle (Mila) et l’Université McGill, ce projet de recherche de l’Université de Montréal, nommé « Une stratégie d’intelligence artificielle pour lutter contre la désinformation », vise à développer un outil web qui pourra détecter la désinformation et déjouer sa source. La solution d’IA évaluera la véracité des textes véhiculés sur le web, en fondant son analyse sur un « corpus de savoirs » qui constituera sa base de données, ainsi que sur des sources considérées comme étant « fiables ».

L’équipe de Jean-François Godbout, professeur titulaire au Département de science politique de l’Université de Montréal, y travaille depuis des mois, en partenariat avec Reihaneh Rabbany, professeure adjointe à l’École d’informatique de l’Université McGill.

S’appuyant sur les avancées de l’intelligence artificielle, en particulier sur les grands modèles de langage (GML), les deux chercheurs affiliés à Mila souhaitent développer un outil robuste, évolutif et convivial pour détecter et contrecarrer la propagation de la désinformation. Cet outil de détection aidera le public, les journalistes, les vérificateurs de faits et les décideurs à comprendre et combattre les récits de désinformation au Canada.

« L’approche sur laquelle nous travaillons permettra une vérification rapide des contenus en ligne, améliorant ainsi le jugement du public sur la qualité de l’information qui circule, et devrait ainsi limiter la propagation de la désinformation », soutient Jean-François Godbout, ajoutant que « Cet outil de détection soutiendra un environnement médiatique sain, en donnant une information juste à la population canadienne, et permettra, de façon ultime, de compter sur un système démocratique en mesure de s’adapter et d’être plus résilient ». Son équipe prévoit déployer l’outil au printemps 2025, « à temps pour la prochaine campagne électorale fédérale ».

Crédit Image à la Une : Fournie par IBM