L’éthique des algorithmes au cœur d’une journée de discussions

Les questions portant sur la responsabilité morale des appareils automatisés, sur la collecte de nos données personnelles ou encore sur les relations sexuelles avec des robots frappent notre imaginaire, comme la plupart des enjeux liés à l’intelligence artificielle (IA). Le 12 février prochain, des chercheurs et étudiants de diverses disciplines se rassembleront pour se pencher sur ce genre de problèmes.

Le Centre de recherche en éthique (CRÉ) et l’Observatoire international sur les impacts sociétaux de l’IA (OBVIA) lancent un appel à propositions dans le cadre de la deuxième édition de la Journée d’étude sur l’éthique des algorithmes.

Dans cet effort « interdisciplinaire », des experts et étudiants en philosophie, bioéthique, droit, informatique, génie, recherche opérationnelle et sociologie sont invités à présenter un court texte dans lequel ils résument un enjeu moral ou éthique concernant l’IA.

Par la suite, les candidats sélectionnés devront effectuer une présentation d’une vingtaine de minutes lors de l’événement qui se tiendra par téléconférence en février prochain. Chacune des allocutions sera suivie d’une période de question-réponse d’une dizaine de minutes. L’atelier se terminera par une table ronde en fin de journée.

L’objectif avoué des organisateurs de l’atelier est d’intéresser le milieu académique aux enjeux de l’IA, alors que les avancées de cette technologie prennent de plus en plus de place dans nos vies.

« C’est un domaine de la philosophie qui est nouveau. Il y a encore peu de professeurs qui sont spécialisés sur le sujet de l’éthique de l’IA. On veut susciter l’intérêt des chercheurs et futurs chercheurs pour cette discipline naissante » – Martin Gibert, chercheur en éthique à l’Institut de valorisation des données (IVADO) et au CRÉ.

Ce dernier, qui est l’auteur du livre Faire la morale aux robots : une introduction à l’éthique des algorithmes, indique s’être inspiré du sujet de son œuvre pour trouver le thème de l’événement.

PLUSIEURS ENJEUX

Le chercheur espère qu’on abordera des enjeux brûlants comme celui de l’opacité des algorithmes.

En effet, dans le contexte de l’apprentissage automatique, il peut devenir difficile de comprendre pourquoi et comment un algorithme prend une décision « A » plutôt que « B », puisque le code à la source de cette décision est écrit par « la machine » et non un individu.

C’est ce qui est communément appelé le problème de la « boîte noire ».

« Dans ce cas, on pourrait examiner dans quelle mesure il est important de savoir comment un robot prend une décision pour porter un jugement sur la valeur morale de ses choix. Est-ce que cette connaissance a un impact ou non? », se questionne M. Gibert.

Le chercheur étudie aussi dans ses travaux la « traduction » des principes moraux en algorithmes.

« Les notions éthiques que nous avons de l’IA sont intéressantes, mais comment peut-on traduire des concepts abstraits en quelque chose de concret comme du code informatique? Faudra-t-il revoir nos principes moraux pour y parvenir? », soulève celui-ci.

Ces problématiques et plusieurs autres pourront être abordés cet hiver lors de l’atelier. Les personnes intéressées à y participer doivent soumettre leur candidature et un texte de présentation d’ici le 31 décembre.

Suivez ce lien pour trouver le document d’inscription.

Crédit Photo: Pexels/C-Technical

Un commentaire
Laisser une réponse

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *