La Déclaration de l’IA responsable a-t-elle créé une conscience sociale?

La Déclaration de l’IA responsable a-t-elle créé une conscience sociale?

La Déclaration de Montréal pour un développement responsable de l’intelligence artificielle (IA) célèbre en décembre son deuxième anniversaire. Ce document visant à poser les premières balises morales d’une technologie qui en est à ses balbutiements aura eu une portée plus grande que ses auteurs ne l’auraient espéré au moment de sa conception.

En 2017, Marc-Antoine Dilhac, professeur agrégé du Département de philosophie de l’Université de Montréal (UdeM), était de l’équipe qui allait accoucher un an plus tard de ce document décisif d’éthique en IA.

Pourtant, à leurs débuts, les ateliers de cocréations, les discussions et les longues heures de rédaction avaient un dessein bien plus limité, soutient-il.

« Notre objectif de départ était de sensibiliser surtout les chercheurs en IA aux enjeux potentiellement liés à leur domaine. On ciblait, par exemple, des problèmes tels que la possibilité de connaître l’orientation sexuelle d’individus par le biais d’algorithmes de reconnaissance faciale », explique l’éthicien.

UNE PORTÉE INATTENDUE

Toutefois, dès sa conception la Déclaration eut un impact inespéré.

« Elle a été saluée comme étant une réalisation majeure par des organismes internationaux, comme l’Organisation de coopération et de développement économiques (OCDE), l’Organisation des Nations unies pour l’éducation, la science et la culture (UNESCO) et le Conseil européen », souligne M. Dilhac.

« Pour qu’un algorithme fonctionne, il n’est pas nécessaire qu’il soit transparent. L’IA responsable est éthique par concept. L’IA fiable comme principe éthique ça ne tient pas la route »– Marc-Antoine Dilhac

À ce jour, la Déclaration a été signée par 1 932 individus et 108 organismes. Document d’une vingtaine de pages, on y distingue 10 principes centraux, touchant autant les questions de vie privée, de démocratie, d’équité et de développement soutenable.

De plus, l’UNESCO a depuis repris la balle au bond en collaborant avec Algora Lab, un laboratoire universitaire interdisciplinaire dirigé par M. Dilhac, l’Institut québécois d’intelligence artificielle (Mila) et le gouvernement du Québec pour créer un guide de délibération au sujet de l’éthique de l’IA.

« C’est un petit document simple et compréhensible qui permet de poser les premiers jalons d’une réflexion sur les enjeux en IA. C’est quelque chose d’important, car le dialogue avec le public doit être constant afin qu’il puisse bien comprendre l’IA, ses dangers et ses possibilités », insiste l’expert.

RESPONSABILITÉ OU FIABILITÉ ?

Au-delà des questionnements théoriques, les principes de la Déclaration peuvent-t-ils avoir des applications concrètes qui pourraient être transférés aux entreprises en numérique?

« Puisque nous avons pris les devants à Montréal pour créer la Déclaration, cela a entraîné une conscience dans le milieu, on est plus sensible à ces enjeux », affirme Alain Lavoie, coprésident de la firme Irosoft.

Cependant, s’il se dit le premier à saluer l’initiative, celui-ci insiste pour que l’on se penche sur le concept « d’IA fiable ».

« Il faut que l’ont puisse expliquer ce qu’il y a dans les algorithmes, qu’ils soient transparents, qu’on ne puisse pas facilement les pirater où détourner leur objectif de départ à des fins néfastes. Ce sont des choses que l’on peut appliquer concrètement en entreprise », indique M. Lavoie.

Pour sa part, le professeur Dilhac se dit en désaccord avec l’idée de fiabilité comme ligne de guide morale de l’IA en entreprise.

« La fiabilité n’existe vraiment que dans des circonstances données. Pour qu’un algorithme fonctionne, il n’est pas nécessaire qu’il soit transparent. L’IA responsable est éthique par concept. L’IA fiable comme principe éthique ça ne tient pas la route », insiste-t-il.

« La fiabilité peut faire partie de la responsabilité morale, mais elle n’est pas suffisante, ajoute Catherine Régis, chercheuse associée à l’Observatoire international sur les impacts sociétaux et l’IA et du numérique (Obvia). On peut avoir un algorithme hyper fiable, mais qui n’a aucune pertinence sociale, ou qui est discriminatoire par exemple. »

Entre la possibilité et la nécessité morale de développer un modèle d’IA, il y a un « grand écart » qui doit être examiné, souligne la professeure titulaire à la Faculté de droit de l’UdeM.

Cette dernière est tout de même optimiste quant au désir des entrepreneurs à ce sujet.

« Plusieurs d’entre eux contactent Obvia pour qu’on les aide à utiliser la Déclaration afin de créer une charte de valeur pour leur compagnie. La plupart des gens veulent bien faire », rapporte la juriste.

« Désormais, il faut que nous travaillions à traduire ses principes en normes applicables dans le milieu du développement commercial » – Marc-Antoine Dilhac

BEAUCOUP DE PAIN SUR LA PLANCHE

Malgré les avancées en la matière, les experts en éthique ne pourront pas se reposer sur leurs lauriers de sitôt.

Le professeur Dilhac reconnaît que la Déclaration ne donne pas un manuel clef en main pour les entreprises.

« Désormais, il faut que nous travaillions à traduire ses principes en normes applicables dans le milieu du développement commercial », souligne-t-il.

Il s’agira d’un labeur difficile, à cause des nombreux secteurs touchés par les innovations de l’IA et parce qu’aucun « langage commun » n’existe encore pour ce faire.

« Il y a des principes éthiques qui s’adaptent moins facilement que d’autres en entreprise. On peut penser au concept de « justice » par exemple. C’est trop vague comparativement à l’imputabilité ou à la transparence », souligne Mme Régis.

La juriste envisage aussi beaucoup de pain sur la planche en termes de création de lois.

« Le droit est quelque chose de très local, mais l’IA dépasse les frontières. Donc, il faudra s’y pencher juridiquement ici et à l’international. C’est pour cela que je suis pour la création de traités mondiaux entre les états, pour aborder des enjeux comme les robots tueurs », indique-t-elle.