IA au travail : Usage clandestin et révolution digitale

IA au travail : Usage clandestin et révolution digitale

L’intelligence artificielle (IA) s’invite de plus en plus dans les entreprises, même si de nombreux dirigeants ne se disent pas prêts à adopter de tels outils technologiques. L’utilisation clandestine de l’IA par les employés gagne en popularité, tandis que certains employeurs ont des politiques mésadaptées à cette révolution numérique.

Le rapport 2024 Work Trend Index Annual Report de Microsoft et LinkedIn a interrogé 31 000 employés dans 31 pays sur leur tendance d’utilisation de l’IA. Selon le sondage, 78 % des employés apportent leur propre IA au travail.

« Cette réalité soulève des questions cruciales sur la manière dont les entreprises doivent aborder l’IA pour gérer cette tendance émergente », commente Madeleine Martins, directrice générale de SKEMA Canada, dans son article La Formation en IA : Un remède pour maîtriser les risques de la tendance BYOAI (Bring Your Own AI).

Comprendre le BYOAI

Le BYOAI, cette tendance d’amener ses propres outils d’IA au travail, que ce soit en présentiel ou à distance, est un phénomène qui touche les travailleurs de tout âge. Si 85 % des 18-28 ans font du BYOAI, c’est tout de même 76 % pour les 44-57 ans.

Mais pourquoi le faire de manière clandestine ? Madeleine Martins explique en entrevue avec CScience qu’une « entreprise n’indique pas toujours ce qui est permis ou non. Et comme nous avons une pression de produire, de livrer rapidement des choses, nous nous disons : pourquoi je me prévaudrais des fonctionnalités de plus en plus variées de l’IA ? ».

« Les employés font du BYOAI parce qu’ils veulent être performants, parce que cela est facile d’accès et que l’entreprise n’a pas de position clairement établie sur ce qu’on peut faire ou pas. »

– Madeleine Martins, directrice générale de SKEMA Canada

Ce besoin d’aller plus vite se reflète dans les raisons d’utiliser l’IA au sein des firmes, selon les membres de direction. En mars 2024, un sondage d’Insight auprès de 600 dirigeants d’entreprise révélait que l’augmentation de la productivité est l’une des raisons principales, à 54 %, de la mise en place d’initiatives d’Intelligence artificielle générative (IAG).

Les études qui confirment l’efficacité de l’IA pour rendre les employés plus productifs sont nombreuses. En 2023, une étude du Massachusetts Institute of Technology (MIT) avançait que les outils d’IA peuvent augmenter la productivité de 20 à 70 %. Ils réussissent réellement à rendre des salariés plus productifs, ou du moins à leur en donner l’impression. Pas étonnant que nombre d’entre eux tiennent à en faire usage au travail.

Les risques du BYOAI

1.      Les IA génératives et leur manque de fiabilité

Introduire une IAG au travail comporte différents risques pour les entreprises. Déjà, ces solutions ne sont pas garantes de produire des contenus qui sont forcément fiables et véridiques.

« Un LLM (grand modèle de langage) n’est pas fait pour donner une réponse vraie ou fausse, mais plutôt une réponse probable. Celle-ci est probable d’après le contenu qui est mis à sa disposition, et qui peut représenter 15 millions de sites Web balayés par le modèle », résume Mme Martins. Elle précise que ces millions de sites sur lesquels des IA génératives se basent ont également une fiabilité variable.

45 % des utilisateurs ne vérifient pas les résultats susceptibles d’être inexacts, trompeurs ou biaisés, selon une étude de KPMG.

Pourtant, parmi les Canadiens qui utilisent l’IA générative au travail, « 45 % des utilisateurs ne vérifient pas les résultats susceptibles d’être inexacts, trompeurs ou biaisés », démontre un sondage de KPGM de 2023 mené auprès de 4 515 employés canadiens. Paradoxalement, 73 % des utilisateurs se disent extrêmement concernés par les hallucinations des technologies d’IA générative.

« Il y a donc un risque qui est de prendre pour certitude des réponses qui ne doivent pas être analysées et utilisées sans un esprit critique très développé, et surtout sans vérification et contre-vérification », insiste la directrice de SKEMA Canada.

2.      Sécurité des données

La sécurité des données concédées inquiète également. « Sans forcément être malveillant, le propre de ces modèles est qu’il s’autoalimente. Donc, ils apprennent avec les données qu’on leur donne. Quand je donne mes données de ma clientèle et que j’analyse mon marché avec OpenAI, je suis en train de lui donner des outils qu’il pourra redonner demain à mon concurrent direct », met en garde Mme Martins.

[ENTREVUE] Éric Caire : « Le maillon faible de la chaîne de cybersécurité, c’est le facteur humain »

Les IA génératives publiques augmentent le risque de fuite de données, de protection des renseignements personnels liés à la clientèle et de cyberattaques. Considérant que 80 % des cyberattaques réussies sont liées au facteur humain, il devient de plus en plus important de comprendre et connaître les limites et les risques de l’IA.

3.      Le BYOAI, ou «gaspiller des ressources»

Le BYOAI peut sembler avoir une grande valeur ajoutée pour le monde des affaires. Cette pratique n’engendre pas de coût, ne force pas l’entreprise à dépendre d’une solution unique, rend le personnel plus productif, plus innovant, plus autonome, et le tout sans besoin de formation.

Mais le BYOAI « gaspille des ressources, explique Madeleine Martins. Pour que les logiciels soient plus performants, il faut payer. Donc, si chaque employé s’abonne tout seul, globalement cela va coûter plus cher que si l’entreprise négociait un abonnement commun, qu’on décide ce que l’on fait de ces outils et la manière d’y accéder. »

Trop attendre avant de mettre en place des politiques liées à l’utilisation de l’IA complique son implantation. Lorsque la société choisira finalement de tenter de mettre en commun les outils utilisés clandestinement par ses employés, il se peut que cela soit impossible étant donné que cette réflexion n’a pas été faite au préalable avec l’infrastructure existante.

4.      Des utilisations malavisées et énergivores

Malgré leur popularité actuelle, les LLM ne sont pas forcément la meilleure solution d’IA pour une entreprise. « Il y a d’autres solutions que les LLM qui peuvent être plus indiquées pour le besoin. Si vous voulez faire une recherche sur le Web, les moteurs de recherche existaient avant l’IA générative. Si notre besoin est de comparer des chiffres et de faire de l’analyse prédictive, prenons des modèles d’IA traditionnels et non des LLM », soutient Madeleine Martins.

500 ml d’eau, c’est ce que consommerait un seul échange avec ChatGPT.

Selon le média en ligne Novethic, un seul échange avec ChatGPT consommerait 500 ml d’eau. Mme Martins s’inquiète de ces utilisations, souvent malavisées, des LLM. « On est en train de contribuer à tuer la planète puisque ces modèles-là sont plus énergivores. C’est comme si je prenais un bazooka pour me débarrasser d’une mouche », illustre-t-elle avec humour.

Les entreprises en quête de solutions

Face à ces différents enjeux, Mme Martins pense que « comme société, on a un intérêt à ce que rapidement les entreprises se positionnent. Cela ne veut pas nécessairement dire adopter des solutions, mais cela devrait pour le moins vouloir dire avoir des politiques claires sur ce que tu peux faire ou non. »

Mais même en comprenant les risques du BYOAI, il demeure difficile pour les dirigeants de savoir comment l’adresser et comment agir pour éviter cette tendance. Toujours selon le rapport 2024 de Microsoft et LinkedIn sur l’IA au travail, au Canada, 74 % des chefs d’entreprise croient que l’adoption de l’IA est essentielle pour rester compétitif. Mais 59 % de ces mêmes dirigeants craignent que leur organisation n’ait pas de vision ou de plans suffisants pour l’inclusion de l’IA.

« Dans le mécanisme d’apprentissage de l’IA, c’est important de donner à l’individu la possibilité de s’autoréguler. »

– Madeleine Martins, directrice générale de SKEMA Canada

Pour contrer les risques du BYOAI, la solution à adopter ne devrait pas être d’interdire l’IA, croit Madeline Martins. « Tout ce qu’on va chercher à interdire, les gens vont essayer de le transgresser. Pour moi, un meilleur moyen est d’expliquer, de montrer en se collant le plus possible à la réalité de l’individu. »

Experts externes et internes

Ce travail et ces réflexions sont difficiles à amorcer seuls, surtout lorsqu’on détient peu de connaissances en IA. Madeleine Martins encourage vivement les décideurs à aller chercher des ressources externes. « C’est difficile de comprendre pourquoi les gens ne sont pas plus curieux des formations qui, en plus, sont remboursées par toute une série de programmes. La réponse se trouve peut-être dans cette impression que l’IA est tellement simple, qu’elle n’a pas de secret et qu’elle est bénéfique pour soi et pour l’entreprise. »

SKEMA Canda a mis en place l’école d’été «Ai for Business». Il s’agit d’une formation de quatre jours qui a pour but de donner aux professionnels des outils pour mieux comprendre les fondamentaux et les limites de l’intelligence artificielle appliquée en entreprise.

En plus de se doter de politiques internes et de faire appel à des consultants externes, Madeleine Martins conseille de porter attention aux employés qui s’intéressent à l’IA pour en faire des leaders internes. Ces personnes sont plus enclines à avoir envie de se former en IA, et peuvent par la suite partager leurs savoirs au reste d’une équipe. « C’est une grande richesse dans une entreprise d’être capable d’avoir à l’interne ce qu’il faut. Une culture d’entreprise, ça se construit comme cela en fait », conclut-elle.

Crédit Image à la Une : Luca Bravo, Unsplash