[ANALYSE] Connexionnisme contre symbolisme – Quel modèle cognitif pour l’intelligence artificielle?

[ANALYSE] Connexionnisme contre symbolisme – Quel modèle cognitif pour l’intelligence artificielle?

À la suite d’un certain nombre d’expériences, nous apprenons. Plusieurs fois, nous tombons de notre vélo, pour y remonter et enfin trouver l’équilibre parfait, puis la maîtrise du mouvement. Nous comprenons, à notre façon, l’ensemble des principes physiques qui nous propulsent. D’une personne à l’autre, le degré de connaissance de ces phénomènes varie, l’agilité également.

Certains sont dits plutôt intuitifs, d’autres plutôt rationnels. Mais, en moyenne, même si chacun apprend à sa manière, nous arrivons à monter sur un vélo, en peu de temps. C’est un apprentissage relativement facile.

Comment un robot pourrait-il apprendre à faire du vélo ?

NOUS APPRENONS PAR DÉDUCTION OU PAR INDUCTION ?

Devrons-nous inculquer au robot toutes les lois de la physique afin qu’il comprenne l’équilibre, la portance, le poids, la vitesse, etc. Ou bien, il nous suffira de l’aider à comprendre, par induction, les conséquences de ses propres mouvements ? Par exemple, il saura identifier quelle déviation produit un caillou sous les roues, alors qu’un facteur similaire l’y a conduit.

La déduction

Et, pourquoi, un robot devrait-il apprendre à faire du vélo ? Pourquoi, n’aurait-il pas, dès sa conception, toutes les habiletés requises pour conduire un vélo ? Dans cette perspective, notre robot et le vélo ne feraient plus qu’un seul engin, se conduisant de manière autonome.

Posséderait-il alors, en mémoire, tous les repères nécessaires pour se faufiler à travers les obstacles ? Pour cela, il lui aura fallu emmagasiner un nombre infini d’occurrences de différents obstacles pour prédire la bonne réaction ; si un animal vient à traverser le chemin, par exemple.

L’induction

Par opposition, ne voudrions-nous pas plutôt lui inculquer le pouvoir d’apprendre de ses propres erreurs et d’être en mesure de reconnaître la présence d’un animal grâce à des facteurs environnants, comme la présence de son prédateur.

« Le deep learning, c’est ce qui fait qu’une machine constate ses erreurs, apprend de ses erreurs et en tire des leçons pour améliorer ses performances ».

Pierre Mounier-Kuhn, chercheur au CNRS spécialisé dans l’histoire de l’informatique.

Ainsi, nous pourrions donner au robot, le pouvoir de faire des liens, qu’il aura lui-même identifiés, pour lui permettre de reconnaître une situation à risque et d’agir en conséquence. Il procéderait alors par induction, analysant les phénomènes pour produire des inférences. C’est une approche appelée Down-Up, ou encore rétrospective.

L’APPRENTISSAGE PAR SYMBOLES 

Si nous parlons d’intelligence artificielle, c’est bien parce qu’elle est analogue à notre intelligence humaine. Ainsi, plus nous tentons de comprendre notre propre intelligence, plus nous sommes en mesure de la reproduire. 

Le symbolisme, en tant que modèle cognitif, propose une vision abstraite de l’esprit. En effet, il suppose que les lois de la physique sont logiques et universelles. Il démontre, également, que chaque situation concrète possède une explication. Il rêve, en définitive, d’une copie conforme de notre esprit.

C’est une approche qui est caractérisée comme étant Top-Down ou encore prospective. Elle part des lois pour comprendre les phénomènes.

Le rôle des émotions

Les analyses qui portent sur les émotions et la possibilité de les programmer ont ouvert tout un champ de réflexion. Nous nous questionnons maintenant sur le rôle qu’elles jouent, non seulement parce que nos émotions font partie de notre intelligence, mais aussi, parce qu’elles la développent.

Nos sensations, notre état d’esprit et notre motivation, tous ces éléments semblent, à juste titre, faire partie de notre apprentissage. Par notre volonté, et à la suite de répétitions de gestes, nous incorporons les bons mouvements à faire et nous sommes en mesure de prévoir les obstacles et de les éviter.

Nous anticipons nos attitudes et nous visualisons nos réactions. Nous n’avons plus besoin de réfléchir. Nous pouvons occuper notre esprit à autre chose, tout en apprenant davantage.

L’APPRENTISSAGE PAR LES LIENS QUE NOUS CRÉONS

On se demande alors si apprendre à faire du vélo se fait par déduction, en appliquant ce que nous avons déjà appris ou bien par induction, en analysant les faits ? Comment nos processus mentaux fonctionnent-ils ?

Le connexionnisme explique l’activité cérébrale, et tout particulièrement l’apprentissage, sous la forme d’interactions. Ce sont les différents phénomènes qui nous entourent qui nous permettent de créer des rapprochements et de prédire des situations. Nous émettons alors des liens (connexions) et grâce à ces liens, nous améliorons notre jugement.

Les liens que nous créons sont des connexions

Le professeur Yoshua Bengio, fondateur et directeur du Mila (l’Institut québécois d’intelligence artificielle) est considéré comme le précurseur de l’approche connexionniste. Il est en effet, le pionnier de l’apprentissage profond.

L’approche qu’il préconise part de l’interprétation neurophysiologique, selon laquelle nos processus mentaux peuvent être expliqués par l’interaction (non linéaire) d’unités simples à travers plusieurs niveaux de neurones.

Nous pouvons nous représenter ce dynamisme de la manière suivante : les neurones constituent les unités simples et les connexions sont nos synapses. 

L’apprentissage profond

Par analogie, l’apprentissage profond de l’intelligence artificielle se fait à l’aide de connexions entre des unités simples réparties sur plusieurs niveaux (layers). La notion de profondeur vient de la présence de ces niveaux (layers, couches ou strates) se voyant interreliés. 

« Ce qui est stocké dans la mémoire, ce ne sont pas des faits, mais plutôt les relations entre les divers aspects de ces faits ».

David E. RumelhartJames L. McClelland

Les auteurs expliquent que ces faits peuvent être interprétés comme des « événements tels qu’ils sont codés dans des groupements de cellules neuronales ou des modèles d’activité cellulaire ».

CONCLUSION

Pour diriger notre vélo et le conduire de manière appropriée, il nous aura fallu acquérir tout un savoir-faire. Il est parfois difficile d’expliquer pourquoi nous avons décidé d’effectuer tel geste, plutôt qu’un autre ; nous nous fions à notre instinct, dirons-nous. 

Les rapprochements visuels, sensoriels ou rationnels que nous faisons nous permettent d’identifier les zones à risques et de les éviter. Or, ces rapprochements ne sont pas toujours explicables, car ils sont subjectifs et liés à notre propre expérience.

L’autonomie des gestes nous est-elle alors permise grâce à l’habitude de rouler, qui en a fait une seconde nature pour nous ? Une question qui semble évidente mais qui révèle, d’une certaine manière, la complexité de la conduite autonome. 

Si les drones peuvent aujourd’hui faire preuve de conduite autonome, c’est qu’ils apprennent par eux-mêmes, en faisant des liens que nous ignorons parfois. 

BIBLIOGRAPHIE

Bernard Victorri; Traité de neuropsychologie clinique, Chapitre 7. Le connexionnisme, De Boeck Supérieur, 2008.

Cardon, Dominique; Cointet, Jean-Philippe; Mazier, Antoine; La revanche des neurones; L’invention des machines inductives et la controverse de l’intelligence artificielle; La Découverte, « Réseaux »; 2018.

Collobert, Daniel Y. M.; Maruan, Alain D.; Connexionnisme, calcul, reconnaissance des formes et intelligence artificielle, Springer, 1989.

Rumelhart, David E.; McClelland, James L.; Parallel Distributed Processing, Volume 1
Explorations in the Microstructure of Cognition: Foundations,
A Bradford Book, 1986.

Rumelhart, David E.; McClelland, James L.; Parallel Distributed Processing, Volume 2, Explorations in the Microstructure of Cognition: Psychological and Biological Models, A Bradford Book, 1986.

Verbeke, Lise; Aux origines de l’intelligence artificielle; France Culture, 2018.