Nul besoin d’insister sur le fait que l’Intelligence Artificielle est une technologie de plus en plus présente dans notre vie quotidienne. Nos lecteurs en sont déjà convaincus. Des assistants vocaux aux robots industriels, l’IA est de plus en plus utilisée pour automatiser les tâches et prendre des décisions. Cependant, l’utilisation de l’IA soulève également des questions de confiance et de responsabilité.
Dès son apparition, et probablement en raison du choix contestable du mot « intelligence » dans son appellation, l’IA a suscité méfiance et même rejet. Les philosophes se chargeront de nous expliquer pourquoi l’être humain refuse qu’une machine puisse prétendre répliquer son raisonnement, au risque de faire mieux. Notre propos est plutôt de comprendre comment il serait possible de construire une relation de confiance avec l’IA. L’IA étant avant tout un système décisionnel, de quelle manière pouvons-nous nous assurer que l’IA prendra des décisions éthiques et justes ? Comment peut-on assurer que les décisions de l’IA sont compréhensibles et vérifiables ? C’est là que l’« IA de confiance » entre en jeu.
« Les critères sur lesquels repose l’IA de confiance sont la transparence, la qualité, la responsabilité, la sécurité et l’éthique. »
Établir des critères
Les critères sur lesquels repose l’IA de confiance sont la transparence, la qualité, la responsabilité, la sécurité et l’éthique.
La transparence
La transparence est un des principaux défis de l’IA de confiance. Elle suppose la compréhension fine et détaillée des mécanismes d’analyse et de décision. Les algorithmes, mêmes les plus couramment employés, peuvent être d’une telle complexité que même leurs créateurs, s’ils peuvent en expliquer le fonctionnement général, seraient bien en mal de justifier une décision précise à un temp t. Cela est devenu une telle barrière à l’acceptation de l’IA qu’un pan entier de la recherche s’y consacre, sous la dénomination de XAI, pour « Explanable AI » ou IA explicable.
La qualité
Par qualité nous entendons principalement la qualité des données. Nous avons déjà écrit un article sur ce sujet délicat, et frustrant s’il en est. Il est cependant important de faire la différence entre qualité subie et qualité choisie. La qualité subie est celle inhérente a la disponibilité des données accessibles, a la qualité de leur acquisition et de leur maintenance. La qualité choisie confère plus en une forme de biais voulu. Prenons l’exemple, aujourd’hui incontournable, de ChatGPT. Quel est son corpus d’apprentissage ? Certes une documentation existe. Mais OpenAI reste une entreprise privée. Les membres du conseil d’administration ont-ils eu la possibilité de « sélectionner » le corpus d’apprentissage. Rien ne le dit, mais le doute existe, incompatible avec la notion de « confiance ».
La responsabilité
Un troisième défi de l’IA de confiance est la responsabilité en cas d’erreur. Les systèmes d’IA peuvent prendre des décisions entraînant des conséquences importantes pour les individus ou les organisations, et il est important de déterminer qui est responsable en cas de problème. Les développeurs peuvent inclure des clauses de responsabilité dans les contrats d’utilisation et proposer un soutien à la clientèle pour aider à résoudre tout problème éventuel. Il reste cependant un vide juridique qui n’encourage pas à la confiance.
La sécurité
Un quatrième défi de l’IA de confiance est la sécurité. Les systèmes d’IA peuvent être vulnérables aux attaques de pirates informatiques, qui peuvent exploiter les failles de sécurité pour modifier l’algorithme ou accéder à des données confidentielles. Les développeurs peuvent tenter de garantir la sécurité en mettant en place des mesures appropriées, telles que le cryptage des données, la vérification de l’identité des utilisateurs et l’utilisation de pare-feu. Ces mesures sont à présent assez bien maitrisées, même si cela reste un combat permanent entre l’attaque et la défense.
L’éthique
Enfin, reste le défi le plus délicat, celui de l’éthique. Cela implique de s’assurer que l’IA ne produit pas de résultats discriminatoires ou injustes, et qu’elle est conforme aux normes éthiques et juridiques en vigueur. Nous entrons ici dans un flou artistique ou les concepts moraux et éthiques peuvent varier en fonction des contextes et des cultures. Chacun devra donc l’estimer en fonction de ses valeurs propres.
On le voit donc, la tache est ardue, de définir et construire les conditions qui feront que l’Etre Humain aura totale confiance en la machine. Mais soyons honnête, et un peu provocateur. Quelles sont les conditions de transparence, qualité, responsabilité, sécurité et éthique que nous exigeons, et contrôlons, d’un autre Être Humain pour lui faire confiance ?
Crédit Image à la Une :