[ANALYSE] L'INTELLIGENCE ARTIFICIELLE FAIT-ELLE PREUVE DE MORALE?

[ANALYSE] L'INTELLIGENCE ARTIFICIELLE FAIT-ELLE PREUVE DE MORALE?

Tout comme la technologie, de manière générale, l’intelligence artificielle qui comprend l’automatisation et l’apprentissage machine ou encore l’hyper-automatisation devrait être considérée comme étant neutre moralement. Du moins, c’est aujourd’hui notre hypothèse. 

Par Patricia Gautrin, Chercheure en éthique de l’IA

Admettons tous que l’IA comme n’importe quelle technologie peut être utilisée d’une manière éthiquement responsable ou, à l’inverse, de manière à causer dommage à autrui, que ce soit volontaire ou non.  

L’IA, UNE TECHNOLOGIE SI DIFFÉRENTE DES AUTRES?

Certaines technologies œuvrent directement pour le bien des sociétés comme le prouvent les avancées dans le domaine de la médecine ou dans celui de l’environnement. Les impacts sociétaux sont bénéfiques, observables et surtout volontaires. Il faut comprendre que c’est, avant tout, parce que la mission des activités dans ces domaines sert une cause honorable. D’autres technologies œuvrent pour un mal, dit nécessaire, qu’est la guerre et d’autres sont uniquement centrées sur l’idéal de maximisation des ressources et des biens. En aucun cas, la technologie comme telle, n’est mise au banc des accusés. Alors, pourquoi l’IA semble l’être aujourd’hui? 

Il faut voir en quoi l’IA est une technologie particulière. Parce qu’elle est intelligente? Mais alors, comment est-elle intelligente? On pourrait répondre qu’elle l’est parce qu’elle est en capacité de prévoir des événements. Ou encore, parce qu’elle est en capacité de prendre des décisions. D’être autonome alors, dirons-nous. C’est à ce moment-là que des craintes surgissent. Quelque chose d’autonome, en mesure de prendre des décisions aura, parmi les choix à faire, des choix éthiques. Et là où l’homme rencontre des dilemmes, la machine, elle, tranche. C’est parce que dans sa capacité de choisir, la machine n’éprouve aucun doute moral qui puisse la freiner. 

POURQUOI PARLER DE BIAIS EN IA?

Mais, avant d’aller si loin dans nos craintes et hypothèses, il faut partir du fait que nous sommes responsables de l’orientation que peut prendre telle ou telle technologie. Dans l’orientation que nous prenons, nous jugeons de l’impact de notre technologie sur la société en analysant les conséquences positives ou négatives qu’elle entraîne. Par exemple, telle avancée en imagerie médicale nous permet d’intervenir et de prévoir avec beaucoup plus de subtilité. Nous avons un impact positif, calculable. Mais ces avancées en imagerie ne sont pas réservées au domaine médical. Le pixel intelligent ouvre un immense champ de recherche dont la reconnaissance faciale est un des phénomènes. On sait aussi que des applications utilisant cette reconnaissance faciale font cas de biais, involontaires ou non, relatifs à la couleur de la peau et peuvent entraîner une sélection raciale. Ainsi, les avancées algorithmiques ne sont pas rattachées à un domaine particulier, elles sont libres et accessibles à tout bon programmeur. Difficile, en ces circonstances d’évaluer les conséquences de tel ou tel algorithme. Comment ne pas craindre alors cette nouvelle intelligence? 

La menace est réelle et les craintes sont justifiées, mais nous pouvons agir. Car, de la même manière que nous apprenons à être responsables de notre planète, nous allons devenir responsables de cette intelligence machine. L’avantage des craintes c’est qu’elles nous sortent de notre confort et nous poussent à réfléchir sur la manière de nous défendre, elles nous font évoluer.   

Au fur et à mesure que nous progressons dans notre partenariat avec l’IA, nous ne devons pas écarter le potentiel de l’IA d’évoluer et d’exister avec une compréhension de notre humanité.”
– Mattew James Bailey 
 

DES ÉTHIQUES DE L’IA

Mais pourquoi ne pas appliquer tout simplement les lois que nous connaissons? Et bien, parce que ces lois n’existent pas. Et que retrouve-t-on en amont des lois? L’éthique ou l’évaluation des valeurs morales. C’est la raison pour laquelle nous questionnons aujourd’hui cette éthique de l’IA? Les avis divergent et le terrain est bien fertile. Il n’y a pas de consensus actuel sur l’approche que nous devons avoir en éthique de l’IA. 

Certaines théories prônent la pluralité des valeurs, d’autres se concentrent sur l’universalité de certaines valeurs. Cette éthique de l’IA est en chantier. Des observatoires voient le jour pour mettre sur la table les débats en éthique de l’intelligence artificielle, comme OBVIA et l’AlgoraLab au Québec, ou Turing Institute et bien d’autres. La mission de ces nouvelles formes d’écosystèmes vise à favoriser l’adoption d’une IA responsable. 

Mes recherches doctorales en éthique de l’IA me portent à croire que nous pouvons travailler à l’échelle internationale pour bâtir des normes valables et que nous n’aurons pas le choix d’adopter une méthodologie évolutive, et pourquoi pas, agile.


BIBLIOGRAPHIE:

Ansgar KoeneAlgorithmic Bias, Addressing Growing Concerns, IEEE Technology and Society Magazine, juin 2017

Bernard MarrThe intelligent revolution, Transforming your business with IA, ed. Bernard Marr, 2020 

Harini Suresh, John V. GuttagA Framework for Understanding Unintended Consequences of Machine Learning, Cornell University, février 2020. 

La Commission Européenne, Libre blanc: Intelligence artificielleUne approche européenne axée sur l’excellence et la confiance, Bruxelles, PDF, 2020

Matthew James BaileyInventing world 3.0, Evolutionary Ethics for Artificial Intelligence, ed. Matthew James Bailey, 2020 

Pascal Bornet, Ian Barkin, Jochen WirtzIntelligent automation, welcome to the world of hyperautomation, ed. Pascal Bornet, octobre 2020

3 Comments
  1. C’est tres bien écrit, mais j’ai peur que des humains irresponsables ont déjà programmé des algorithmes avec des buts malsains et sans éthique. Comment déjouer ces algorithes déjá entammés? Comment déjouer les algorithmes
    dans les ordinateurs quantiques?
    Qui va décider la direction et pour quels intétêts? Je trouve qu’il y a des gens de bonne foi mais il existe des gens qui vont à tout prix
    essayer de manipuler les autres avec cet outil
    et réussir car les lois sont comme les règles
    et sont faits pour être brisés.
    Bonne chance!

    1. Un grand merci pour votre commentaire constructif, Monsieur Bergen.
      Oui, vous avez raison : l’IA peut toujours tomber entre de mauvaises mains. Comme tout outil, toute invention scientifique. Une raison de plus pour ne pas négliger l’effort éthique indispensable en la matière. Une IA “irresponsalbe” n’est pas envisageable. Il faut fixer un cadre, des normes et moyens coercitifs sans doute pour en garantir une saine application. Le débat ne fait que commencer.

      1. Exactement, le débat ne fait que commencer. L’important est d’avoir cette conscience éveillée des dangers potentiels et/ou actuels. En analysant la place des biais, on peut déjà détecter ceux qui existent, enfin en partie. Il faut prendre en compte tout le cycle de vie des données, comprendre leur émission, leur circulation, leur transformation et leur impact. Il faut aussi s’apprêter comme individu à voir la frontière entre le privé et le public s’atténuer et ainsi à changer nos habitudes afin de nous protéger en amont. Il faut questionner la redevabilité (accountability) des applications d’un point de vue éthique. Il faut se demander si la dignité humaine est respectée. Et, surtout, il faut agir!

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *