[TimeWorld IA] Mythanalyse de l’IA : faut-il désirer sa propre mort ?

[TimeWorld IA] Mythanalyse de l’IA : faut-il désirer sa propre mort ?

Une sélection des moments marquants de la journée du 6 mai 2022. Les déclarations et les échanges de tables rondes et conférences, choisies par la rédaction, pour vous faire vivre l’essence de cette deuxième journée de TimeWorld IA sur le campus MIL de l’Université de Montréal.

Notre journaliste Christopher Lemonnier, a suivi ce vendredi 6 mai différentes conférences et nous fait un résumé de celles-ci. 


16h45-17h30 : Mythanalyse de l’IA : faut-il désirer sa propre mort ?

hervé fischer, timeworld, ia, montréal

Hervé Fisher à Timeworld IA

Qu’est-ce que la mythanalyse ? Il s’agit de l’équivalent de la psychanalyse mais ayant comme objet d’étude sur imaginaires sociaux et les mythes collectifs plutôt que sur les individus.

Quand on prend la parole, il faut avoir quelque chose à dire. Or, l’intelligence artificielle, elle n’a rien à dire. « SIRI » ne fait que sélectionner une réponse qui lui a été fournie par un programmeur. Si elle ne trouve rien à dire, elle propose une phrase toute faite d’excuses. Elle devine parfois un sens possible à une question mal formulée, mais ce n’est qu’une interprétation statistique. On ne parle ici que de machinisme, mais le programme ne pense pas. Il n’a que des recettes algorithmiques. Un perroquet est plus intelligent que le plus puissant des ordinateurs. L’animal est un sujet, pas un objet. Il choisit quand parler et quoi dire.

L’IA est un chef-d’œuvre de l’intelligence humaine.

L’apprentissage profond est époustouflant, mais c’est seulement à force de répétition. Un ordinateur pourrait être le meilleur chef du monde, découvrir les meilleures associations de saveur, mais ne pourra jamais être un inspecteur du guide Michelin. Il ne ressentira jamais les textures sur l’assiette, les sensations, le sourire des amis autour de la table.

L’intelligence artificielle sauve des vies, elle nous aide à mieux manger, elle permet les progrès de la médecine avec un degré de précision et de sécurité jamais atteint. Elle détecte la vitesse de propagation du son sur mars. Et nous n’en sommes encore qu’au début.

« L’intelligence artificielle est le plus grand mythe de notre époque. » – Hervé Fischer

Le cas du faux-vrai Rembrandt

L’intelligence artificielle d’une équipe hollandaise a déjà créé un « faux » tableau de Rembrandt, à l’aide d’un apprentissage sur plus de 300 œuvres du peintre. On attribuera à ce Rembrandt la valeur d’une œuvre synthétique accumulant toutes les vertus du maitre. D’autres, du collectif Obvious, ont fait de même avec de même avec de nombreux portraits de la bourgeoisie du XIXe siècle, et s’est vendu près de 450 000 $ aux enchères.

Ce genre de production exige beaucoup de temps machine, mais il est possible de produire beaucoup de « toiles de maitre », de façon très rentable. Au-delà de ces deux exemples, on pourrait en citer d’autres tels que la création de musique ou de romans. Mais tout cela ne représente que le pouvoir d’imitation de l’IA.

L’objectif des ingénieurs aujourd’hui est de prouver la puissance de création artistique de l’IA, et non seulement celle d’imitation. Une telle intelligence artificielle serait dite forte, c’est-à-dire dotée d’une conscience. Cette IA est prophétisée depuis longtemps.

« La liberté artistique et la liberté de penser seront dures à battre. » – Hervé Fischer

En matière d’architecture, sujet plus technique, la question de « l’augmentation » se pose. Il serait impossible de construire certains bâtiments modernes sans l’aide du pouvoir de calcul de l’intelligence artificielle. Mais faut-il attribuer à l’IA le triomphe de l’architecte ? Devons-nous parler d’architecture « augmentée » ?

Le concept d’augmentation n’est en fait qu’une illusion, un mythe, qui ne réfère qu’à une augmentation de la quantité de données analysées. Rien ne justifie vraiment le mot « apprentissage » ni le mot « pronfond ». Ce n’est pas un approfondissement de l’intelligence : pour considérer cela, il faudrait faire preuve de malhonnêteté intellectuelle et considérer l’éducation comme un simple bourrage de crâne.

« L’ordinateur ne peut penser plus que l’homme. » – Hervé Fischer
L'artiste et philosophe Hervé Fischer

L’artiste et philosophe Hervé Fischer

L’artiste et l’intelligence artificielle

L’art augmenté, ce serait la fin des artistes, ce sera la fin des musées, et l’avènement d’un Koons cyborg produisant de l’art en série. Le seul calcul qui pourrait être fait serait celui de l’ennui.

L’artiste augmenté est un artiste qui désire sa propre mort. La pratique artistique doit néanmoins répondre à l’intelligence artificielle, et cette réponse consiste à introduire un bug, à enrouer les algorithmes, à créer le chaos. Si c’est de plus la machine qui domine le monde, l’art doit lui répondre. On peut faire « couler l’encre » d’un code QR ou détourner l’utilisation d’un logiciel d’animation. À l’opposé de « L’être ensemble numérique » ces actions relèvent d’un dialogue entre l’artiste et l’algorithme qui fait émerger les vraies questions critiques et esthétiques.

Numérique ou pas, l’art est une fenêtre sur le monde, et l’usage artistique de l’IA offre un moyen d’évoquer le chaos du monde.


14h30-15h15 : L’IA peut-elle résoudre le problème du changement climatique ?

Peu de problèmes sont aussi urgents et importants que celui du changement climatique. Quelle que soit la discipline, d’étude, des économistes à la science des matériaux, les chercheurs se posent la question de la réduction des gaz à effet de serre. Le changement climatique provient en effet d’un débalancement de la température de la planète.

Kulbir Kaur Ghuman nous parle du changement climatique

Kulbir Kaur Ghuman nous parle du changement climatique

Pour identifier les opportunités qu’a l’intelligence artificielle de contribuer à cette lutte existentielle, il faut se concentrer sur la notion de découverte en science.

L’histoire de la recherche, en physique et en chimie, est parsemée de découvertes qui ont changé l’industrie, comme l’ammoniaque ou les hydrocarbures liquides. Certaines découvertes se produisent par accident : l’insuline, la dynamite, ou la pénicilline en sont des exemples célèbres.

Plus récemment, la découverte de nouveaux matériaux se produit par l’utilisation d’outils computationnels, comme des simulations quantiques qui peuvent prédire les caractéristiques d’un matériau sans avoir à le produire. On peut ainsi évaluer comment une nouvelle formulation se comportera dans différents environnements, en faisant virtuellement varier des paramètres de températures, d’ensoleillement, ou de pression atmosphérique.

Dans les meilleurs groupes de recherche, les expériences dans le labo et sur ordinateur vont de pair : les deux se complémentent.

Comment faire baisser la température de la terre d’ici 2050 ?

À l’heure actuelle, nous ne sommes pas en position d’atteindre les objectifs de réduction du carbone identifiés par les scientifiques comme minimalement nécessaires à la limitation du dérèglement climatique. Il faudrait par exemple abandonner le charbon 5 fois plus vite ou multiplier par 5 la vitesse de reboisement de la planète pour y arriver.

« L’IA peut accélérer la lutte contre les changements climatiques, même si elle ne peut pas être le seul outil. »Kulbir Kaur Ghuman

Entre la découverte de l’effet de serre par Tyndell en 1850 et l’identification du problème des changements climatiques en 1981 il s’est écoulé plus d’un siècle. Depuis, nous avons essayé de mitiger les changements, avec un progrès des énergies vertes et renouvelables. Mais ce progrès est trop lent. La science guidée par les données est un outil qui peut mitiger se problème, plutôt que d’espérer une découverte accidentelle ou passer encore plus de temps dans les labos.

Améliorer le processus de production de l’ammoniaque

Dans son laboratoire de l’INRS, Kulbir Kaur Ghuman effectue des recherches sur les matériaux dans différentes applications telles que la catalyse des réactions, la capture du carbone ou encore pour les piles à combustible des futures voitures. Dans ce contexte, elle a commencé à utiliser l’IA.

La synthèse de l’ammoniaque est un marché de 110 milliards de dollars, mais cette réaction est catalysée par le fer, ce qui provoque une importante production de dioxyde de carbone (CO2), un gaz à effet de serre. L’objectif du groupe de recherche était donc de créer un nouvel alliage, c’est-à-dire un mélange de deux métaux, pour catalyser la réaction sans production de CO2. La première intuition fut un mélange de Rhutenium et de Fer. Après avoir passé plus d’un an au laboratoire, la piste fut abandonnée, car l’analyse computationnelle montrera des problèmes.

Avec un retour à la case départ, l’équipe change de stratégie. Ils envisagent un nouvel alliage de nickel et de cuivre, mais débutent cette fois par une analyse computationnelle. En quelques heures, ils avaient un résultat probant et ils pouvaient maintenant passer à l’expérimentation en laboratoire. Au total, la mise au point du nouveau matériau aura pris seulement 8 mois.


12h15-13h : Est-ce que l’IA comprend l’inflation ?

L’inflation est un des sujets économiques majeurs de 2022. L’augmentation des prix sur un an dépasse les 6 %, ce qui représente un écart important avec l’inflation désirable d’environ 2 %. Sur deux ans, c’est près de 4 % d’augmentation que l’on constate. Peu d’économistes ont vu venir cette crise, l’AI aurait-elle pu la prédire ?

Prédire l’économie ?

Philippe Goulet Coulombe à TimeWorld IA

Philippe Goulet Coulombe à TimeWorld IA

Les modèles statistiques et économétriques en général ne se sont pas révélés particulièrement fiables pour effectuer des prédictions. En conséquence, les politiques économiques sont au mieux souvent adoptées avec du retard, au pire contreproductives.

La nature complexe et interdépendante des données fait de l’intelligence artificielle la méthode tout indiquée pour modéliser l’économie et l’inflation. Le jeu de données présente beaucoup d’interactions entre les variables (telles que le PIB, les taux d’intérêt, le taux de chômage), que des méthodes telles que les réseaux de neurones résolvent efficacement.

“La route de l’enfer est pavée de choses qu’on ne savait pas qu’on ne savait pas.”

Philippe Goulet Coulombe

Trois problèmes se dégagent néanmoins. Tout d’abord, les relations sont en mouvement constant. La macroéconomie de 2022 n’est plus celle de 1970, on ne peut pas entraîner les algorithmes sur des données historiques. Ensuite, on a finalement assez peu de données historiques pour entraîner effectuer un apprentissage complet. Enfin, l’interprétabilité est importante : un preneur de décision dans une banque centrale ne veut pas faire confiance à une « boîte noire », il demande des justifications.

Réseaux de neurones et inflation

Philippe Goulet Coulombe à TimeWorld IA

Dans les années 50, les économistes proposaient un lien entre chômage et inflation (la célèbre courbe de Phillips). Mais les données sont devenues chaotiques, la courbe de Phillips ne produit pas un résultat fiable pour les deux dernières années. Reproduire une telle courbe pour aujourd’hui semble difficile. L’idée consiste à demander à un algorithme de produire une version neurale de cette courbe. En intégrant de la théorie macroéconomique dans les modèles d’apprentissage machine, on augmente l’interprétabilité.

La théorie économique de base assume que les pressions économiques (economic slack) sont le principal moteur de l’inflation. Il s’agit d’un concept qui représente la différence entre offre agrégée et demande agrégée d’une économie, c’est-à-dire la différence entre ce que l’économie peut produire et ce que l’économie est en train de produire. Mais un tel concept ne se retrouve pas dans les données, ils ont été théoriquement déduits.

Concevoir l’algorithme

Comment modéliser l’augmentation des prix à partir de l’activité économique ?

  • Ingrédient 1: Une base de données de 250 indicateurs économiques prédictifs pour les États-Unis depuis 1960
  • Ingrédient 2: Un modèle de neurone par hémisphère

L’objectif de l’AI est d’identifier quels sont les indicateurs pertinents et les transformations statistiques pertinentes qui ont un pouvoir prédictif du taux d’inflation.

Le réseau de neurones est composé de 3 hémisphères :

  • Les attentes des agents économiques pour l’inflation
  • Le second l’activité économique réelle à partir des 250
  • Le dernier le prix des commodités

Chaque hémisphère produit un output qui se retrouve dans une seule équation, une sorte de courbe de Phillips neurale. Une fois entraîné, le modèle se révèle plus efficace que les modèles d’apprentissage profond seuls. De plus le modèle, entraîné sur 1960-2019, modélise avec succès le boom inflationniste de 2021-2022, ce que ne font pas les modèles traditionnels, car ils ne mesurent pas correctement la différence entre demande agrégée et offre agrégée.

L’objectif, afin que le modèle puisse guider la prise de décision économique, reste l’interprétabilité du résultat : traduire ce que l’AI nous apprend dans le langage des économistes de la banque centrale. Il faut donc regarder quels paramètres ont été repérés par le modèle comme composants de cette nouvelle mesure de la pression économique. Les deux plus importantes ont été l’index des postes vacants et les heures travaillées, ce qui contraste avec l’utilisation plus orthodoxe du taux de chômage et du PIB.

“L’algorithme, dans sa détection des signaux inflationnistes, écarte les indicateurs classiques tels que le taux de chômage et le PIB en faveur d’alternatives davantage sensibles à la pénurie de main-d’œuvre.”

Philippe Goulet Coulombe

Alors l’AI peut-elle comprendre l’inflation ? Elle peut en tout cas extraire une estimation de l’«economic slack» basée sur les données et qui ne présente pas les problèmes d’une approche économique traditionnelle. Ce résultat peut ensuite être utilisé pour repenser la courbe de Phillips, un outil interprétable par les preneurs de décision.


10h45-11h30 : La visualisation de données est-elle une science ou un art ?

Qu’est-ce qu’une visualisation de donnée ?

Thomas Hurtut

Thomas Hurtut

Une visualisation est une représentation visuelle d’information servant des objectifs. Elle doit aider à répondre à une question posée. Il est primordial d’en caractériser les objectifs en amont. La visualisation est contrainte par le type de données qui sont à visualiser, bien sûr. Et cette technique s’apprend : Thomas Hurtut l’enseigne maintenant à polytechnique et plus de 500 étudiants ont déjà suivi le cours.

Alors que notre système cognitif a certaines forces dans l’interprétation d’éléments visuels, la visualisation permet d’en tirer parti pour une meilleure atteinte de l’objectif. Le créateur encode une donnée, l’utilisateur doit pouvoir décoder les données.

« La visualisation cherche à exploiter les forces du système cognitif et contourner ses faiblesses. » – Thomas Hurtut

Dans le processus de la data science, la visualisation peut aider à toutes les étapes : collecte, nettoyage, au moment de l’exploration, au moment de la validation du processus d’apprentissage et bien sûr quand il s’agit de présenter les données.

La visualisation, science ou art ?

Thomas Hurtut

Thomas Hurtut à Timeworld IA

On peut définir un art comme « une manière de faire qui manifeste un gout ou un sens esthétique » ou encore une « création destinée à produire chez l’homme un état particulier de sensibilité plus ou moins liée au plaisir esthétique ». Mais cette considération n’est pas primordiale en visualisation : le but n’est pas de stimuler une notion esthétique, mais de permettre à l’utilisateur de répondre à sa question.

D’un autre côté, la science est un processus empirique, ce qui ne représente pas non plus ce qu’est le travail de production d’une visualisation.

La visualisions se caractérise plutôt comme un processus de design. Elle émerge de la réponse à des questions que doit se poser son créateur :

  • Quel est l’objectif ?
  • Qui va l’utiliser ?
  • Quel est le contexte ?
  • Quel est l’utilisateur cible ?
  • Quelles autres contraintes ?

Le processus de design est centré sur l’utilisateur. Il comporte trois phases amenées à se répéter :

  • Comprendre au mieux les données dont on dispose. D’où viennent-elles, quelles sont les variables, quelles sont les valeurs de ces variables, leurs moyennes, médianes, etc.
  • Déterminer qui sera l’utilisateur ? Quel est son bagage ? Quel sera le support de la visualisation et le contexte dans lequel elle est présentée ?
  • Quel est le but de cette visualisation ?

C’est seulement une fois ce processus achevé que l’on peut se poser la question de l’encodage visuel, basé sur son expérience, les principes de design, et les expériences passées du designer. On commence avec des croquis avec de simples crayons, avant de passer à des outils permettant de tester une idée avec ses propres données. On itère beaucoup, avançant par essai erreur, ce qui est très différent des autres cours des jeunes élèves ingénieurs de Polytechnique !


9h15-10h : Une même éthique peut-elle convenir pour toutes les formes d’intelligence ?

Jean-Paul Delahaye timeworld IA

Jean-Paul Delahaye à Timeworld IA

Jean-Paul Delahaye est mathématicien à l’Université de Lille, venu à TimeWorld parler d’éthique. En effet, il a pour intuition de baser une théorie éthique sur le concept de complexité organisée. Selon lui, du fait que la complexification de l’univers s’interprète en termes d’information et de calculs, il est possible de déduire une éthique universelle.

Qu’est-ce que la complexité ?

L’Univers s’organise progressivement : on parle de complexification. L’évolution cosmique, à partir des atomes, puis vers les molécules, engendre la vie qui accélère elle aussi la production de complexe. Il est possible d’avoir une vision informationnelle de ce processus : ce progrès se mesure sous la forme de calculs. Et depuis 60 ans, la capacité de calcul et la capacité de stockage de l’information ont été multipliées par plus d’un million.

« L’évolution de l’univers est un progrès du calcul et du stockage cumulatif de l’information. » – Jean-Paul Delahaye

Pour mieux comprendre, il faut poser quelques définitions : on nomme complexité de Kolmogorov la taille de la version optimalement compressée d’une information (sans perte d’information). Plus un objet est aléatoire, par exemple une suite de nombre aléatoire, plus il a un fort contenu en information. On nomme par ailleurs profondeur logique de Bennett le temps, compté en nombre de pas de calculs, pour passer de l’objet le plus compressé à sa version décompressée. C’est entre l’ordre répétitif trivial et le désordre total du hasard se trouve les objets fortement structurés concernés par ces deux théories.

L’évolution cosmique accroît la profondeur logique de l’univers et le rend de plus en plus apte à l’accroire rapidement. L’univers complexe remplace progressivement le désordre et le hasard. Il s’agit d’une interprétation informationnelle et computationnelle de ce qui s’est passé depuis l’apparition de la vie et des sociétés humaines. L’Univers peut être imaginé comme un gigantesque ordinateur qui se perfectionne sans cesse pour produire toujours plus de complexité organisée. L’évolution biologique doit être également vue comme un calcul, celui de la sélection naturelle. Les organismes plus complexes apparaissent par compétition et évolution.

Quelle éthique pour le monde complexe ?

Identifions quelques objectifs relativement peu controversés en éthique :

  • La vie humaine est ce que nous souhaitons protéger.
  • L’art et la littérature créent des objets qui enrichissent la complexité structurelle de la société humaine.
  • La science enrichit les rapports entre le monde et l’image que nous avons du monde.
  • La recherche est assimilable à un calcul. Qu’il s’agisse de mener des expériences, faire progresser les théories ou reformuler des hypothèses, toutes les activités des scientifiques sont assimilables à des calculs.

Il est donc possible de fonder une éthique de la complexité organisée sur ces quelques principes.

« Le bien c’est créer, conserver, contribuer à faire croître la complexité organisée. » – Jean-Paul Delahaye

On retrouve une application pratique de cela dans la bible, alors que Noé peuple son arche d’un unique couple de chaque espèce : faire disparaître une espèce est regrettable, alors que tuer un animal d’une espèce prospère est moins grave. Cela correspond au principe de la maximisation de la profondeur logique de Benett. Nous avons donc le devoir de préserver la complexité du monde. La richesse des interactions entre espèces animales et végétales est une complexité qui s’est mise en place lentement et qu’il faut respecter. Créer, protéger, conserver, collectionner sont des actions qui maximisent la complexité organisée.

La conservation de la complexité est une idée que l’on retrouve déjà dans une majorité des systèmes moraux. L’éthique de la complexité serait une manière de réunir des systèmes moraux très divers. Elle promeut également des principes universels, s’oppose aux nationalismes et aux spécismes, à travers une idée large de ce qui doit être encouragé. Enfin, elle peut être adoptée par tous les êtres doués d’autonomie, que ce soit des humains, des animaux, des extraterrestres (éventuellement !), mais surtout par les robots et l’intelligence artificielle. Et contrairement aux fameuses règles d’Azimov, cette éthique de la complexité universelle n’est pas anthropocentrée. Avec une éthique de la complexité organisée, nous serions mieux à même d’affronter l’existence de véritables intelligences artificielles et de nous entendre avec elle.


8h00 : Arrivée des participants

C’est par une belle journée printanière que les participants arrivent au Campus MIL de l’Université de Montréal où s’amorce cette deuxième journée de TimeWorld IA. Le programme du jour promet de montrer le caractère profondément interdisciplinaire de l’intelligence artificielle puisque les sujets abordés seront aussi divers que l’éthique, la visualisation des données, la philosophie, l’économie ou encore les changements climatiques!

Pour un résumé de notre couverture de la journée de Jeudi 5 mai à Timeworld, cliquez ici.

CScience IA est partenaire officiel de l’événement.