L’IA en entreprise : l’art d’assumer ses responsabilités

Créer des algorithmes efficaces et fiables est l’objectif principal de toute entreprise dans le domaine de l’intelligence artificielle (IA). Toutefois, cela n’est plus suffisant et l’innovation socialement responsable doit désormais être intégrée à la mission entrepreneuriale, selon plusieurs panélistes réunis par la Chambre de commerce du Montréal métropolitain (CCMM).

Issus des milieux académique et commercial, ces experts étaient rassemblés pour discuter d’éthique en IA, dans le cadre du Forum stratégique sur l’IA, le jeudi 18 mars.

D’entrée de jeu, le thème de la responsabilité sociale a été introduit lors d’une intervention de la part de Joëlle Pineau, directrice du Laboratoire de recherche en IA de Facebook et codirectrice du Laboratoire d’apprentissage et de raisonnement à l’École d’informatique de l’Université McGill.

« Il faut ouvrir la culture de la responsabilité scientifique, (…) qui est liée au concepts de robustesse et d’efficacité, et l’élargir à la responsabilité sociale, (…) qui est liée aux principes de sécurité, d’inclusion, de transparence, etc. », a souligné celle-ci.

Mme Pineau a aussi insisté que ce nouvel esprit d’entreprise devrait désormais être appliqué tout au long du développement de projets en IA.

DE PREMIERS EFFORTS

Selon les intervenants, des tentatives d’adopter des normes éthiques dans la conception, l’application et la distribution de modèles d’IA au niveau commercial ont déjà été lancées.

Invité à s’exprimer sur le sujet, Samir Sahli, spécialiste numérique en entreprise chez Microsoft Canada a donné pour exemple certains efforts entrepris par son employeur pour limiter la discrimination et les effets négatifs des algorithmes.

Celui-ci a rappelé que le géant du numérique avait mis un frein à la vente de modèles de détection visuelle des piétons auprès des forces de l’ordre aux États-Unis.

En effet, Microsoft a annoncé l’été dernier vouloir attendre l’adoption de lois chez nos voisins du sud sur les systèmes de reconnaissance faciale avant de fournir de tels programmes aux policiers.

De plus, d’après M. Sahli l’entreprise « fait attention » à qui elle distribue des programmes de numérisation vocale, qui pourraient permettre de simuler la voix de n’importe quel individu. L’expert souligne les inquiétudes soulevées par cette technologie, qui sont similaires à celles associées aux « Deepfakes », un trucage faisant appel à l’IA pour superposer les visages de personnes dans les vidéos.

CASSER LES ALGORITHMES

En plus d’adopter une nouvelle culture socialement responsable, certains panélistes s’entendent pour dire qu’il faut revoir tout le processus de conception en soi.

Prenant l’exemple des algorithmes de classification des curriculum vitae dont se servent certaines entreprises lors de la sélection de candidats, Sasha Luccioni, croit qu’il ne faudrait pas s’arrêter aux paramètres qui font en sorte qu’on trouve le meilleur employé.

« Vous pouvez dire « Ok, l’algorithme fonctionne, on a le bon candidat », mais il est important de voir ceux qui ont été rejetés et de comprendre pourquoi ils n’ont pas été acceptés. Il faut prendre les systèmes qui fonctionnent et les tester sans cesse, changer leurs paramètres, essayer de les casser », souligne la chercheuse postdoctorale à l’Université de Montréal et au Mila.

Même son de cloche de la part du cofondateur de Moov AI, Olivier Blais, qui croit dur comme fer à un examen minutieux des modèles d’IA.

« On ne peut pas dire « on ne sait pas ce qu’on ne sait pas », c’est trop facile. Il faut regarder le comportement des modèles, sinon on risque les biais » – Olivier Blais, cofondateur de Moov AI

Celui-ci rapporte le cas d’un modèle de prêt bancaire sur lequel il a travaillé.

« Tout semblait bien fonctionner avec les données fournies. Puis on s’est penché sur les variables, pour voir qu’est-ce qui faisait qu’on pouvait être rejeté. On s’est rendu compte que tous les individus qui avaient reçu une prestation d’aide pour les personnes autochtones étaient rejetés pour un prêt à un taux de 100 %. Bien évidemment, on a corrigé ce biais, mais ça démontre le besoin de repasser dans les paramètres », martèle-t-il.

Crédit photo: capture d’écran/Emmanuel Delacour

Laisser une réponse

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *