Projets d’intelligence artificielle : les risques au-delà de la technique

Projets d’intelligence artificielle : les risques au-delà de la technique

Dans cette chronique, notre experte Sarah-Legendre-Bilodeau vous propose de réfléchir aux risques tangibles que peut comporter un projet de valorisation des données et d’intelligence artificielle pour une entreprise.

La démocratisation de l’intelligence artificielle passe beaucoup par la formation. Dans mes expériences d’enseignement des dernières années, notamment à HEC Montréal, j’ai eu de nombreuses occasions de transmettre des connaissances sur plusieurs thématiques liées à la science des données et à l’intelligence artificielle. Les thèmes abordés qui sont revenus le plus souvent touchaient les langages de programmation, la statistique, l’apprentissage automatique et les technologies supportant le développement de solutions en valorisation des données et intelligence artificielle.

Lors des activités d’enseignement, on se concentre le plus souvent sur la technique et les outils, mais beaucoup moins sur les avenues à emprunter pour que les projets soient des succès en entreprise. En effet, même la solution la plus techniquement aboutie en intelligence artificielle peut ne pas être un succès, et même devenir une catastrophe pour l’entreprise qui la déploie. Pourquoi ? Parce que l’importance de plusieurs facteurs est souvent sous-estimée dans de tels projets. Dans cette chronique, j’ai eu envie de nourrir la réflexion quant à quelques types de risques non techniques qui peuvent être associés à un projet de valorisation des données et d’intelligence artificielle. Mais attention ! Je ne parlerai pas ici de la prise de contrôle de la terre par les robots, du piratage des voitures autonomes ou des attaques de drones. Pour ça, vous pouvez faire une recherche sur Google sur les risques liés à l’intelligence artificielle. Il sera plutôt question ici des risques bien réels pour n’importe quelle entreprise qui souhaite déployer une solution d’intelligence artificielle, allant de la PME à la grande entreprise.

Les risques opérationnels

Il y a eu de beaux succès dans les dernières années dans le déploiement de solutions d’intelligence artificielle en entreprise, notamment pour automatiser de façon intelligente des processus. On n’a qu’à penser à des solutions mobilisant l’intelligence artificielle, qui permettent d’interagir avec des clients, d’analyser automatiquement des documents numérisés ou d’appuyer une décision complexe comme l’octroi d’une police d’assurance ou d’un produit de crédit financier. Ce type de solutions permet d’obtenir des bénéfices concrets dans les entreprises, notamment en termes d’efficacité, de satisfaction client par une réponse plus rapide, de gestion de risques et de productivité.

« (…) avec l’IA, on doit constamment gérer l’incertitude et l’erreur. Alors attention de ne pas prendre nos clients et partenaires pour des cobayes ! »

Or, elles peuvent également bouleverser de façon importante les opérations et activités clés de l’entreprise. En effet, il faut savoir qu’avec l’IA, on doit constamment gérer l’incertitude et l’erreur. Alors attention de ne pas prendre nos clients et partenaires pour des cobayes ! Leur satisfaction pourrait en être fortement affectée négativement. Il est donc impératif de bien connaître les limites d’une solution d’IA et de bien former les personnes qui sont en première ligne avec les clients ou qui ont la responsabilité des activités clés de l’entreprise. Conserver un regard critique par l’humain sur les recommandations et les décisions du système d’IA doit toujours être au cœur de nos préoccupations.

Les risques légaux et de réputation

Avec l’avènement au Québec de la loi sur la protection des renseignements personnels, les entreprises sont de plus en plus préoccupées par ce sujet. Et c’est une bonne chose ! Les entreprises traitent souvent d’énormes quantités d’informations, souvent personnelles ou sensibles. Pour des solutions d’IA prédictives, par exemple dans le domaine du marketing ou de la vente, les données personnelles ont souvent un grand potentiel prédictif et amènent une grande valeur. L’importance du « juste assez » prend donc ici tout son sens. Il faut bien balancer les risques et les bénéfices de collecter, conserver et utiliser des données personnelles dans les solutions d’IA.

De plus, les décisions prises par des systèmes d’intelligence artificielle peuvent être sujettes à des litiges juridiques. Par exemple, si une décision automatisée entraîne des conséquences négatives pour un individu, celui-ci peut intenter une action en justice pour contester la légalité ou la justesse de cette décision. Les entreprises doivent donc veiller à ce que leurs systèmes d’IA respectent les normes juridiques et soient capables de fournir des explications et des justifications en cas de litige.

« (…) les décisions humaines sont souvent biaisées, et j’aime bien dire que les algorithmes sont des machinesà répliquer (et intensifier?) les biais. »

Les risques éthiques

Lorsque nous utilisons des algorithmes pour prendre des décisions ou pour automatiser des processus, ce sont souvent les données issues des décisions passées qui sont utilisées. Or, les décisions humaines sont souvent biaisées, et j’aime bien dire que les algorithmes sont des machinesà répliquer (et intensifier?) les biais. Est-ce qu’il suffit de retirer une variable associée à un biais pour que le biais disparaisse ? Non. Même que cela peut causer encore plus de problèmes. Pour être en mesure de contrôler au maximum les biais, il vaut mieux bien le comprendre et l’analyser. Jouer à l’autruche n’est donc pas la solution. Une bonne connaissance de ce risque et une attention particulière feront toute la différence dans la gestion des risques éthiques liés à l’IA.

Quelques exemples de domaines où une attention particulière doit être portée : le recrutement, l’octroi de prêts ou d’une assurance, la prise de décisions judiciaires.

La responsabilité et la transparence sont des aspects essentiels de l’éthique de l’intelligence artificielle. Les décisions prises par des systèmes d’IA peuvent avoir un impact significatif sur la vie des individus. Il est donc crucial de comprendre comment ces décisions sont prises et d’être en mesure de les expliquer de manière compréhensible. La mise en place de mécanismes de responsabilité et de redevabilité est essentielle pour éviter les décisions arbitraires ou injustes.

Les risques politiques

Les derniers types de risques que je souhaite aborder dans cette chronique se rapportent aux dynamiques internes et aux enjeux politiques propres aux organisations. De mon point de vue, ces risques s’intensifient avec l’augmentation de la taille de l’organisation.

Tout d’abord, le manque d’adhésion peut constituer un risque majeur. Les projets d’intelligence artificielle peuvent nécessiter des changements importants dans les processus, les rôles et les responsabilités au sein de l’entreprise. L’intégration de l’IA peut représenter autant de bouleversements pour les individus que de bénéfices attendus. La gestion de changement doit donc être au cœur des préoccupations dans un projet d’IA. Et le plus tôt, le mieux !

Le rayonnement est également un aspect politique à considérer. Certains individus ou départements peuvent chercher à préserver leur pouvoir ou à protéger leurs intérêts, ce qui peut générer des obstacles à la collaboration et à la diffusion des connaissances. Je dis souvent que la possession de la donnée et de l’information amène le pouvoir !

Enfin, les objectifs non-alignés peuvent poser un défi politique. Quelques exemples de problèmes rencontrés en entreprise sur le sujet du désalignement : pensons aux modes de rémunération et de bonification qui sont parfois contradictoires, des indicateurs de performances non-alignés sur le plan stratégique ou des méthodes de reconnaissance qui ne favorisent que la pensée à court terme.

Des pistes pour atténuer les risques

Crédit : Kindel Media

1) Il est important de constituer une équipe multidisciplinaire et d’impliquer les contributeurs dès le début du projet. Tous les contributeurs auront besoin de faire leur propre cheminement dans le projet ! Et tous ne partent pas du même point d’égalité en termes de connaissances et d’expertise…

2) Il faut former les gestionnaires de tous les niveaux sur la valorisation des données et de l’IA. Il faut s’assurer que les gestionnaires comprennent les concepts et les implications de la valorisation des données et de l’intelligence artificielle. Une formation adéquate leur permettra d’identifier les meilleures opportunités, de prendre des décisions éclairées, de communiquer efficacement et de soutenir les initiatives liées à l’IA au sein de l’entreprise.

3) Pensez à mobiliser des acteurs clés pour les opérations. L’implication des acteurs opérationnels qui seront directement touchés par le projet d’IA est primordiale. Leur expertise et leur compréhension des processus opérationnels aideront à identifier les risques potentiels et à trouver des solutions adaptées. C’est eux qui feront en sorte que la solution soit réellement pertinente !

« Tout est une question d’équilibre. Pour assurer le succès du déploiement d’une solution d’IA, il est important d’avoir une prise en charge minimale à l’interne. En revanche, il est important de rester sur le cœur de métier de l’entreprise. Si nécessaire, des consultants externes ou des ressources spécialisées pourront compléter l’expertise de l’équipe interne. »

4) N’oubliez pas de bien vous entourer et d’assurer la complétion de l’expertise de l’équipe auprès de ressources externes, au besoin. Tout est une question d’équilibre. Pour assurer le succès du déploiement d’une solution d’IA, il est important d’avoir une prise en charge minimale à l’interne. En revanche, il est important de rester sur le cœur de métier de l’entreprise. Si nécessaire, des consultants externes ou des ressources spécialisées pourront compléter l’expertise de l’équipe interne.

5) Mettre en place un processus de validation en cours de projet est primordial. L’établissement en amont d’étapes de validations régulières tout au long du projet permettra de maîtriser plusieurs risques. Les validations impliquent aussi l’analyse des résultats dans une perspective de compréhension des biais.

6) Testez, testez, testez ! Même si l’on pense que certaines situations n’arriveront jamais, croyez-moi, elles vont toutes survenir !

7) Enfin, pensez à mettre en place un processus de surveillance des algorithmes et à mobiliser de vrais experts. La mobilisation d’experts en IA permet de mieux évaluer, auditer et améliorer les modèles et les algorithmes afin de garantir leur précision, leur équité et leur fiabilité.

Les risques propres aux initiatives impliquant l’intelligence artificielle sont bien présents. Mais le retour sur investissement a été démontré par de nombreuses façons au cours des dernières années. La clé : les projets d’intelligence artificielle sont d’abord des projets humains, qui visent à appuyer les humains, pour améliorer leur quotidien et les aider à être plus performants.

Crédit Image à la Une : cottonbro studio