[ANALYSE] L’intelligence artificielle fait-elle preuve de morale?

[ANALYSE] L’intelligence artificielle fait-elle preuve de morale?

Tout comme la technologie, de manière générale, l’intelligence artificielle qui comprend l’automatisation et l’apprentissage machine ou encore l’hyper-automatisation devrait être considérée comme étant neutre moralement. Du moins, c’est aujourd’hui notre hypothèse. 

Par Patricia Gautrin, Chercheure en éthique de l’IA

Admettons tous que l’IA comme n’importe quelle technologie peut être utilisée d’une manière éthiquement responsable ou, à l’inverse, de manière à causer dommage à autrui, que ce soit volontaire ou non.  

L’IA, UNE TECHNOLOGIE SI DIFFÉRENTE DES AUTRES?

Certaines technologies œuvrent directement pour le bien des sociétés comme le prouvent les avancées dans le domaine de la médecine ou dans celui de l’environnement. Les impacts sociétaux sont bénéfiques, observables et surtout volontaires. Il faut comprendre que c’est, avant tout, parce que la mission des activités dans ces domaines sert une cause honorable. D’autres technologies œuvrent pour un mal, dit nécessaire, qu’est la guerre et d’autres sont uniquement centrées sur l’idéal de maximisation des ressources et des biens. En aucun cas, la technologie comme telle, n’est mise au banc des accusés. Alors, pourquoi l’IA semble l’être aujourd’hui? 

Il faut voir en quoi l’IA est une technologie particulière. Parce qu’elle est intelligente? Mais alors, comment est-elle intelligente? On pourrait répondre qu’elle l’est parce qu’elle est en capacité de prévoir des événements. Ou encore, parce qu’elle est en capacité de prendre des décisions. D’être autonome alors, dirons-nous. C’est à ce moment-là que des craintes surgissent. Quelque chose d’autonome, en mesure de prendre des décisions aura, parmi les choix à faire, des choix éthiques. Et là où l’homme rencontre des dilemmes, la machine, elle, tranche. C’est parce que dans sa capacité de choisir, la machine n’éprouve aucun doute moral qui puisse la freiner. 

POURQUOI PARLER DE BIAIS EN IA?

Mais, avant d’aller si loin dans nos craintes et hypothèses, il faut partir du fait que nous sommes responsables de l’orientation que peut prendre telle ou telle technologie. Dans l’orientation que nous prenons, nous jugeons de l’impact de notre technologie sur la société en analysant les conséquences positives ou négatives qu’elle entraîne.

Par exemple, telle avancée en imagerie médicale nous permet d’intervenir et de prévoir avec beaucoup plus de subtilité. Nous avons un impact positif, calculable. Mais ces avancées en imagerie ne sont pas réservées au domaine médical. Le pixel intelligent ouvre un immense champ de recherche dont la reconnaissance faciale est un des phénomènes. On sait aussi que des applications utilisant cette reconnaissance faciale font cas de biais, involontaires ou non, relatifs à la couleur de la peau et peuvent entraîner une sélection raciale.

Ainsi, les avancées algorithmiques ne sont pas rattachées à un domaine particulier, elles sont libres et accessibles à tout bon programmeur. Difficile, en ces circonstances d’évaluer les conséquences de tel ou tel algorithme. Comment ne pas craindre alors cette nouvelle intelligence? 

La menace est réelle et les craintes sont justifiées, mais nous pouvons agir. Car, de la même manière que nous apprenons à être responsables de notre planète, nous allons devenir responsables de cette intelligence machine. L’avantage des craintes c’est qu’elles nous sortent de notre confort et nous poussent à réfléchir sur la manière de nous défendre, elles nous font évoluer.   

« Au fur et à mesure que nous progressons dans notre partenariat avec l’IA, nous ne devons pas écarter le potentiel de l’IA d’évoluer et d’exister avec une compréhension de notre humanité.»
– Matthew James Bailey
 

DES ÉTHIQUES DE L’IA

Mais pourquoi ne pas appliquer tout simplement les lois que nous connaissons? Et bien, parce que ces lois n’existent pas. Et que retrouve-t-on en amont des lois? L’éthique ou l’évaluation des valeurs morales. C’est la raison pour laquelle nous questionnons aujourd’hui cette éthique de l’IA? Les avis divergent et le terrain est bien fertile. Il n’y a pas de consensus actuel sur l’approche que nous devons avoir en éthique de l’IA. 

Certaines théories prônent la pluralité des valeurs, d’autres se concentrent sur l’universalité de certaines valeurs. Cette éthique de l’IA est en chantier. Des observatoires voient le jour pour mettre sur la table les débats en éthique de l’intelligence artificielle, comme OBVIA et l’AlgoraLab au Québec, ou Turing Institute et bien d’autres. La mission de ces nouvelles formes d’écosystèmes vise à favoriser l’adoption d’une IA responsable. 

Mes recherches doctorales en éthique de l’IA me portent à croire que nous pouvons travailler à l’échelle internationale pour bâtir des normes valables et que nous n’aurons pas le choix d’adopter une méthodologie évolutive, et pourquoi pas, agile.


BIBLIOGRAPHIE:

Ansgar KoeneAlgorithmic Bias, Addressing Growing Concerns, IEEE Technology and Society Magazine, juin 2017

Bernard MarrThe intelligent revolution, Transforming your business with IA, ed. Bernard Marr, 2020 

Harini Suresh, John V. GuttagA Framework for Understanding Unintended Consequences of Machine Learning, Cornell University, février 2020. 

La Commission Européenne, Libre blanc: Intelligence artificielleUne approche européenne axée sur l’excellence et la confiance, Bruxelles, PDF, 2020

Matthew James BaileyInventing world 3.0, Evolutionary Ethics for Artificial Intelligence, ed. Matthew James Bailey, 2020 

Pascal Bornet, Ian Barkin, Jochen WirtzIntelligent automation, welcome to the world of hyperautomation, ed. Pascal Bornet, octobre 2020