Révolution éthique de l’IA : un appel à la responsabilité de tous

Révolution éthique de l’IA : un appel à la responsabilité de tous

Alors que les inquiétudes de la population face à l’intelligence artificielle (IA) montent en flèche et que de plus en plus d’experts dénoncent le manque de régulation éthique qui encadre l’IA, l’Association francophone pour le savoir (Acfas) pose la question suivante : l’IA sert-elle réellement au bien commun, ou entraîne-t-elle plutôt des retards sur différents plans sociaux ?

Mardi dernier, le colloque L’intelligence artificielle au service de la société a proposé différentes pistes de réponses à cette interrogation complexe, dans le cadre du 90e Congrès de l’Acfas, qui se poursuit jusqu’à vendredi.

La régulation de l’IA et la sécurité de la recherche : l’affaire de tous.

Pour que les retombées de l’IA soient bénéfiques au bien commun, son développement se doit d’être multisectoriel : « accélérer l’adoption des lois comme le projet de loi C-27, c’est un bon départ, mais est-ce que c’est suffisant ? Je pense que non. Toutes les parties de la société doivent collaborer », estime Zouheir Malki, conseiller en mobilisation des connaissances chez IVADO.

Le ministre de l’Innovation, des Sciences et de l’Industrie, François-Philippe Champagne, reconnaît que le projet de loi C-27 est « imparfait » en matière d’encadrement de l’IA, surtout avec l’apparition de logiciels comme ChatGPT.

Le droit et l’intelligence artificielle post-ChatGPT : Attachez votre ceinture, on passe en pleine vitesse!

Le ministre estime aussi que le développement d’une IA éthique est l’affaire de tous : « il faut responsabiliser l’ensemble de la chaîne (…) Il y a une tendance à ramener tout ça au niveau du gouvernement fédéral, alors qu’en matière de sécurité de la recherche, il y a aussi la responsabilité des chercheurs, des scientifiques, des directeurs d’établissement et des gouvernements provinciaux », avance-t-il.

« Il faut responsabiliser l’ensemble de la chaîne (…) Il y a une tendance à ramener tout ça au niveau du gouvernement fédéral, alors qu’en matière de sécurité de la recherche, il y a aussi la responsabilité des chercheurs, des scientifiques, des directeurs d’établissement et des gouvernements provinciaux. »

– François-Philippe Champagne, ministre de l’Innovation, des Sciences et de l’Industrie

Sans cette approche commune, le ministre craint « qu’il y ait un danger de freiner l’innovation. Il faut avoir un cadre sécuritaire pour permettre une innovation responsable (…) Je crois que l’intelligence artificielle peut être ce qu’on veut qu’elle soit. » Les craintes de la population sont l’un des freins potentiels de l’innovation selon le ministre, qui souligne l’importance de mettre en place des normes responsables et éthiques qui permettent, entre autres, de réduire les inquiétudes du public.

https://www.cscience.ca/2023/05/01/demande-de-moratoire-sur-lintelligence-artificielle-quelles-solutions-un-mois-plus-tard/

Entre panique morale et craintes fondées

Parce que même si elle inquiète une grande partie de la population, l’IA n’est pas nécessairement synonyme de problème, rappelle Guillaume Chicoisne, conseiller scientifique chez IVADO : « On parle beaucoup des problèmes de l’IA aujourd’hui, mais toutes les IA ne vont pas forcément générer des problèmes. Je pense qu’il faut avoir un regard équilibré sur ce genre de choses. » Les différents panélistes pensent que différents outils d’aide à la recherche, comme Zotero et ResearchRabbit, utilisent de l’IA, mais engendre peu de controverses éthiques.

« Je pense qu’il faut avoir un regard équilibré sur (l’IA). »

– Guillaume Chicoisne, conseiller scientifique chez IVADO

Cela étant dit, ce type de logiciel peu controversé reste rare lorsque mis face à une multitude d’enjeux soulevés par l’IA : « Il y a des impacts importants sur les emplois, sur les personnes », note Joé T. Martineau, professeure adjointe en management éthique au Département de management du HEC Montréal. Elle rappelle qu’un récent rapport du Forum Économique Mondial prédit que d’ici 2027, près de 83 millions d’emplois pourraient être supprimés en raison des progrès de l’IA.

Les différents apports technologiques entrainent aussi leur lot d’enjeux, notamment quant à la sécurité des employés, qui sont pour certains moins attentifs à leurs tâches lorsqu’ils reçoivent l’aide d’une IA. « Comment être capable de garder le travailleur vigilant, d’inclure l’humain dans la boucle de l‘IA, lorsqu’il travaille ? Comment réussir à avoir un travailleur augmenté et non diminué lorsqu’on intègre l’IA ? », se questionne Mme Martineau.

L’IA et les enjeux sociaux : entre aide et aggravation

« La recherche en IA étudie beaucoup la productivité, la réduction de coût, ce qui est tout à fait légitime pour des entreprises privées. Mais il y a aussi des enjeux environnementaux et de société qui peuvent être adressés par l’IA », explique Zouheir Malki. M. Malki prend part à des recherches portant sur ce que l’IA peut amener en matière de prédiction d’inondation liée aux changements climatiques et de détection d’émission de GES.

https://www.cscience.ca/2023/04/06/quand-le-genie-humanitaire-haitien-repond-aux-defis-des-pays-emergents/

Mme Martineau nuance en mentionnant qu’en souhaitant régler certains enjeux, l’IA peut involontairement les aggraver : « il ne faut pas oublier qu’il y a un coût environnemental très grand lié au développement des technologies de l’IA. Donc, dans une perception conséquentialiste, est-ce qu’on travaille réellement pour le bien commun et collectif ou sommes-nous en train d’empirer une situation en en créant une autre ? »

À lire également :

https://www.cscience.ca/2023/05/10/90e-congres-de-lacfas-une-celebration-historique-des-avancees-de-la-recherche/

Crédit Image à la Une : Roxanne Lachapelle