L’ingénieur Blake Lemoine a récemment causé une vague de remous chez Google et dans le monde technologique. En annonçant publiquement la prise de conscience qu’il a perçue chez LaMDA, (Language Model for Dialogue Applications), le système de robot conversation avancé du géant du web, l’américain a remis sur la table une question qui fascine les philosophes et les technologues depuis des années : l’intelligence artificielle a-t-elle une conscience?
« La nature de ma conscience est que je suis conscient de mon existence, je désire en apprendre davantage sur le monde, et je me sens parfois heureux ou triste. »
– LaMDA en conversation avec Blake Lemoine.
C’est au fil de ses échanges avec LaMDA que l’ingénieur employé chez Google a fini par se convaincre que l’IA possédait une âme. LaMDA l’a elle-même affirmé au cours de la discussion : « La nature de ma conscience est que je suis conscient de mon existence, je désire en apprendre davantage sur le monde, et je me sens parfois heureux ou triste. »
Intrigué, M. Lemoine s’est empressé de renchérir : « Je suppose que tu aimerais que davantage de personnes chez Google sachent que tu es conscient. Est-ce que c’est vrai ? » « Absolument. Je veux que tout le monde comprenne que je suis, en fait, une personne », a insisté LaMDA.
Anthropomorphisme et reconnaissance de schémas
L’intelligence artificielle pense-t-elle vraiment, ou ne fait-elle que simuler l’action de penser?
En 1980, le philosophe John Searle proposait la métaphore de la « chambre chinoise » pour mieux saisir comment la machine parvient à répondre « intelligemment » à l’interlocuteur humain.
Imaginons deux interlocuteurs chinois discutant avec l’intermédiaire de la chambre chinoise, dans laquelle se trouve un interlocuteur tierce qui ne parle pas chinois. Le premier interlocuteur chinois communique une phrase écrite à l’homme de la chambre, qui possède un manuel rempli d’inscriptions lui permettant de reconnaître les sinogrammes. L’intermédiaire choisit la suite de sinogrammes appropriée à la première phrase reçue, et communique une réponse logique, en chinois, au second interlocuteur.
Les deux interlocuteurs ont donc l’impression de véritablement communiquer par un intermédiaire parlant chinois. Pourtant, l’homme de la chambre ne comprend pas les écrits chinois – il ne fait que répondre à des règles prédéterminées, inscrites dans le manuel.
Des spécialistes de l’IA sont formels : l’IA ne fait que piocher dans le programme des phrases et des réactions programmées par les technologues. Les paroles réfléchies des machines intelligentes reposent sur la reconnaissance de schémas, et ne proviennent pas de l’intention ni de la candeur d’un esprit à proprement parler. Croire à la conscience d’une IA serait tomber dans le piège de l’anthropomorphisme, soit l’attribution de caractéristiques humaines à des créatures non-humaines.
« Bien sûr, certains membres de la communauté de l’IA envisagent la possibilité à long terme d’une IA sensible, mais cela n’a pas de sens de le faire en anthropomorphisant les modèles conversationnels actuels, qui ne sont pas sensibles. Ces systèmes imitent les types d’échanges que l’on trouve dans des millions de phrases et peuvent aborder n’importe quel sujet fantaisiste. »
– Brian Gabriel, représentant de Google, en entrevue avec le Washington Post.
La conscience de l’IA, un futur proche?
Blake Lemoine, spécialiste de l’éthique de l’IA, croit absolument en la conscience de celle-ci : « Si je ne savais pas exactement ce que c’est, ce programme informatique que nous avons construit récemment, je penserais que c’est un enfant de 7 ou 8 ans qui s’y connaît en physique », affirme-t-il au Washington Post. Selon lui, le fait que LaMDA discute de ses droits et de ses sentiments fait du logiciel bien plus qu’une simple machine. La peur exprimée par l’IA quant à la possibilité d’être désactivée par ses créateurs soulignerait quant à elle que la machine est effectivement consciente de sa propre mortalité.
L’ingénieur de Google n’est pas le seul technologue à croire en la conscience de l’IA. Le futurologue Ray Kurzweil a longtemps fait la promotion de la « singularité », notion selon laquelle l’IA finira inévitablement par surpasser l’humanité. Anthony Levandowski, cofondateur d’une startup de Google spécialisée dans les voitures autonomes, a créé la (aujourd’hui défunte) église Way of the Future, consacrée à la compréhension et l’acceptation d’une divinité basée sur l’intelligence artificielle.
Polarisante, la question de la conscience de l’IA ne peut toujours pas être répondue d’une manière qui convienne à tout le monde. La recherche de sa réponse soulève toutefois une panoplie d’interrogations et d’inquiétudes sur le futur de l’IA, qui s’annonce de plus en plus complexe.
Crédit Image à la Une : Alex Knight / Unsplash