EDITORIAL: IA éthique au Québec: y a-t-il un pilote dans l’avion?

EDITORIAL: IA éthique au Québec: y a-t-il un pilote dans l’avion?

Alors qu’à Montréal on célèbre, par l’entremise de plusieurs événements, la première année d’existence de l’Observatoire internationale sur les impacts sociétaux de l’IA et du numérique (OBVIA), une question majeure se pose : qui peut et doit garantir une saine utilisation de l’IA dans ses différents domaines d’application? L’Etat? Une commission indépendante? Une instance arbitrale? Les entreprises privées elles-mêmes?

Et, tout comme nous avons eu une Stratégie québécoise de la recherche et de l’innovation en 2017, est-il prévu de disposer prochainement d’une “Stratégie de l’IA éthique au Québec”?

Une éthique en IA est indispensable

Ce n’est plus un secret pour personne que Montréal et le Québec se sont taillés en quelques années une place de choix dans le monde pour la recherche en Intelligence artificielle.

Qu’il s’agisse de santé, de mobilité, de solutions environnementales ou de détection des fraudes, la preuve n’est plus à faire que nos centres de recherches sont de véritables champions en matière de solutions ou d’approches innovantes.

Cette réussite éclatante risque de faire passer l’IA pour ce qu’elle n’est pas : la solution technologique à tous nos maux ou bien, au contraire, la fin prochaine de l’homme dans plusieurs secteurs d’activité au profit de la machine. Difficile de faire la part des choses entre le bien et le mal. Le vrai et le faux.

C’est en cela qu’une éthique, autrement dit des règles et des valeurs de conduite, est indispensable au développement de l’intelligence artificielle. Les dérives sont déjà connues. L’utilisation abusive et détournée des bases de données, les biais algorithmiques, voir l’utilisation à des fins violentes ou meurtrières comme dans le cas des armements high tech, peuvent transformer ces innovations en outils démoniaques si elles ne sont balisées par des règles morales strictes et respectées. La philosophie (la sagesse) et le droit doivent s’inviter aux paillasses des laborantins.

De l’effervescence mais peu de balises concrètes

Un an après sa création, l’OBVIA multiplie donc les initiatives. Plus de 160 chercheurs sont mobilisés, des rapports commencent à être remis (dont un récent dans le domaine des assurances), une première Journée de réflexion scientifique s’est tenue en décembre dernier, cette semaine se tient un colloque sur l’intelligence collective, une journée d’étude aura lieu en février sur la bioéthique, un atelier de travail en mars prochain autour des enjeux d’éthique économique et de justice fiscale… bref, les activités ne manquent pas!

Au coeur de cette effervescence, on ne saisit cependant pas encore suffisamment la feuille de route en termes d’objectifs et de résultats concrets attendus. A quoi tout ceci peut-il aboutir? Une réglementation ? Un cadre de directives imposé aux chercheurs? Aux industriels? Aux usagers?

Les gouvernements et les instances internationales semblent à l’aube de mettre en place des comités et des commissions dans la perspective de définir des garde-fous réglementaires, mais qu’en est-il de la mise en œuvre de leur application effective?

Alors que, partout dans le monde, des groupes de réflexion sont actifs sur le sujet, au Québec, incubateur majeur de l’IA dans le monde s’il en est, ne peut-on aller plus loin dans la démarche?

Un plan et des instances pour réguler

Une politique publique de l’IA responsable au Québec est appelée de nos vœux à court ou moyen terme. Elle pourrait significativement paver la voie à d’autres engagements politiques de même nature à travers le monde. Car le temps presse.

Au dernier Forum économique mondial de Davos, Virginia Rometty, présidente et directrice générale d’IBM exprimait son désarroi en constatant “une abondance de technologies, mais une pénurie d’idées politiques concrètes pour garantir la protection des personnes tout en permettant à l’innovation de prospérer ».

La semaine dernière, dans le magazine “Actu IA”, le spécialiste français en transformation IA, Romain Fouach, s’interrogeant sur les modalités d’application de l’IA responsable finissait même par poser la question : doit-on parler de mythe ou de réalité concernant l’IA éthique?

Aussi, une gouvernance de l’IA ne peut-elle être laissée aux entreprises seules. Le passé nous a démontré que les intérêts privés ne coincident pas toujours et pas forcément avec l’intérêt général. Il faudra réglementer à un niveau supérieur.

Si les divers travaux qui sont en cours pour poser le diagnostic le plus juste possible sont bienvenus, il faudra rapidement passer de la parole aux actes en précisant les visées, les objectifs concrets de toutes ces belles et prestigieuses initiatives de réflexion.

Comprendre les impacts de l’IA, c’est une chose. Définir les outils de régulation potentiels et le déploiement de cet arsenal réglementaire en est une autre. Et de taille!

A défaut, le questionnement des utilisateurs, des praticiens mais aussi des citoyens risque de se transformer en défiance à l’égard d’une recherche technologique qui fait certes la fierté de nos décideurs mais absorbe aussi, en attendant, une quantité d’argent publique non négligeable.

Vous pouvez réagir, répondre en écrivant à p.regnoux@galamedia.ca