Intelligence artificielle : L’urgence de se doter d’une gouvernance de l’IA

Intelligence artificielle : L’urgence de se doter d’une gouvernance de l’IA

L’Organisation des Nations Unies pour l’éducation, la science et la culture (UNESCO) et Mila lancent l’ouvrage Les angles morts de l’intelligence artificielle. L’évolution incroyablement rapide de la technique a mené à la publication de ce livre qui « s’adresse aux membres des milieux politiques, de la recherche et de la société civile afin de favoriser un développement de l’IA éthique, inclusif et conforme aux droits humains ».

Les défis

Lors du lancement tenu le 20 mars dans les bureaux de Mila – Institut québécois d’intelligence artificielle, les co-auteurs du livre ont témoigné de l’urgence de se doter d’une meilleure gouvernance de l’IA. Pour Tawfik Jelassi, sous-directeur général de l’UNESCO pour la communication et l’information, cet ouvrage collaboratif « contribue de manière importante à la réflexion sur les défis de gouvernance et les lacunes en matière de capacité humaine et institutionnelle, auxquels les pays sont confrontés pour assurer l’utilisation responsable et fiable de l’IA. »

« Nommer, comprendre, et dénoncer les angles morts de l’IA, c’est se donner la chance de définir et de redéfinir, en continu, nos attentes comme société pour un meilleur développement de l’IA. »

– Carole Jabet, directrice du volet santé du Fonds de recherche du Québec.

Ces défis sont nombreux, et il importe de se pencher sur « les angles morts de l’IA, qu’il s’agisse de l’exclusion de certaines populations, de l’utilisation parfois plus que questionnable de l’IA en regard du bien commun, de concentration de pouvoir, de manipulation du contenu conduisant à une désinformation absolument grave et certaine. Les nommer, les comprendre, les dénoncer, c’est se donner la chance de définir et de redéfinir, en continu, nos attentes comme société pour un meilleur développement de l’IA », estime Carole Jabet, directrice du volet santé du Fonds de recherche du Québec qui soutient ce projet.

Michel Bonsaint, représentant du gouvernement du Québec au sein de la Délégation permanente du Canada auprès de l’UNESCO, note aussi les défis que soulève l’IA au Québec quant à la protection de l’économie, de la culture et de la science : « Compte tenu des attentes, mais aussi des incertitudes, notamment en ce qui a trait aux biais et à la diversité, le gouvernement est particulièrement préoccupé par la protection et la promotion du français et de la découvrabilité des contenus culturels, scientifiques et autres francophones et québécois en ligne. » M. Bonsaint croit également que le Québec peut jouer un rôle significatif dans la gouvernance de l’IA et qu’il y a urgence d’agir.

https://www.cscience.ca/2023/03/13/valoriser-la-litterature-scientifique-francophone/

Un ouvrage nécessaire

Les angles morts de l’intelligence artificielle a pour mission « d’alimenter et enrichir des conversations de grandes importances sur le sujet de l’IA », rappelle Valérie Pisano, présidente et cheffe de la direction de Mila.

Dans cette logique, quatre principes fondateurs ont guidé la rédaction de cet ouvrage : l’identification d’enjeux dont on ne parle pas assez par rapport à l’IA, une vision interdisciplinaire, un principe d’inclusion et une approche multipartite. Benjamin Prud’homme, co-éditeur, co-auteur et directeur exécutif d’IA pour l’Humanité chez Mila, soulève qu’à partir de ces principes, l’ouvrage en arrive à trois constats principaux :

  • Il y a un besoin important d’être bien plus inclusif dans le développement de l’IA
  • Il y a un besoin de réglementation et de gouvernance internationale
  • Il faut inviter la population à cesser de voir l’IA comme une technologie neutre et plutôt comme un endroit de pouvoir

Entre dangers et possibilités

En guise de conclusion au lancement, une discussion entre deux co-auteurs du livre s’est déroulée. Le fondateur et directeur scientifique de Mila Yoshua Bengio et la chercheuse principale senior à Microsoft Research Kate Crawford ont soulevé différentes opportunités et problématiques qu’amène le développement mal réglementé de l’IA.

« Nous devons maintenant mettre de l’avant un projet d’envergure beaucoup plus important lorsque nous pensons aux infrastructures technologiques. Nous devons réfléchir au genre de monde dans lequel nous voulons vivre et à l’organisation de celui-ci, car en ce moment, les décisions concernant l’architecture du pouvoir lié à l’IA ne sont pas prises par nous, mais par un nombre extrêmement restreint d’hauts placés non élus », lance Kate Crawford.

Yoshua Bengio rappelle à son tour l’impact que ces décisions et réglementations ont sur la démocratie. Selon lui, d’importants changements au niveau de la structure de différents systèmes organisationnels sont nécessaires à la survie de la démocratie et au maintien de « la place de la culture de la vérité » en science.

« Nous devons réfléchir au genre de monde dans lequel nous voulons vivre et à l’organisation de celui-ci, car en ce moment, les décisions concernant l’architecture du pouvoir lié à l’IA ne sont pas prises par nous, mais par un nombre extrêmement restreint d’hauts placés non élus. »

– Kate Crawford, chercheuse principale senior à Microsoft Research.

Cette vérité ne peut être atteignable qu’avec une plus grande transparence, explique Kate Crawford. Le manque de connaissances quant à la construction de certaines technologies, de leurs bases de données utilisées et de leurs approches de collecte de données amène un double défi, selon Mme Crawford : un défi scientifique et de gouvernance.

D’un regard scientifique, ce manque d’inclusion et de partage public amène une « menace sociale » qui limite l’évolution et la reproduction de technologies dans des domaines d’importance tels que l’éducation et la santé. Il est aussi difficile de gouverner et de réguler un phénomène qui n’est pas suffisamment observé de l’intérieur. La régulation se doit d’accélérer sa vitesse pour suivre celle de l’IA, tout en s’assurant d’inclure des acteurs de différents milieux qui visent à maintenir une IA développée éthiquement et inclusivement.

À lire également :

Doit-on avoir peur de l’intelligence artificielle en journalisme?

Crédit Image à la Une : Roxanne Lachapelle