Un mot sur l’apprentissage automatique

Un mot sur l’apprentissage automatique

L’omniprésence de l’intelligence artificielle, ou IA, est récente. Elle est souvent associée à une suite de buzz words comme « apprentissage profond (Deep Learning) », « apprentissage automatique (Machine Learning) », ou Big Data, même si ce terme a tendance à disparaitre.

Interrogeons-nous sur les raisons de cette soudaine éclosion.

Les principes fondamentaux de l’intelligence artificielle ne sont pas nouveaux. Les calculs de probabilités dates du 17ème siècle. Le perceptron, premier réseau de neurones, date de 1957. Le langage Python a été créé par Guido van Rossum en 1991. Alors pourquoi cette soudaine frénésie ?

Deux évènements importants en sont à l’origine : le Big Data et l’Apprentissage Automatique.

L’année 2002 marque le début de l’âge digital. En 2005 apparait le terme Big Data. Mais ce n’est qu’au début des années 2010 qu’il se démocratise. Il représente un bond technologique et est souvent résumé par les 3 V : Volume, Vélocité et Variété. Nous constatons une augmentation considérable de la capacité de stockage des données et du volume de traitement. Nous constatons également une accélération importante de la vitesse de calcul des processeurs. Et enfin, chiffres et lettres ne sont plus les seules données possibles. Viennent s’y ajouter les images, les sons, les documents, etc. Ces augmentations de capacite ont soudain rendue possible l’exécution de calculs complexes, que l’on connaissait depuis longtemps, mais que l’on ne pouvait exécuter.

La modélisation prédictive, qui est au cœur de l’intelligence artificielle, n’est également pas nouvelle. Le premier modèle mathématique de prédiction météorologique date de 1950. Le pointage de crédit, qui produit la probabilité de faillite d’un client, est utilisé par les banques depuis des décennies. Les modèles prédictifs souffrent cependant d’une réelle faiblesse : ils sont fondés sur des corrélations observées dans le passé. Notre univers et notre monde étant en constante évolution, ces corrélations évoluent, rendant les modèles obsolètes avec le temps. Il était alors nécessaire de totalement refaire un modèle devenu périmé, entrainant un investissement souvent important, en temps et en ressources. Cela avait pour conséquence une réticence certaine à changer les modèles entrainant l’utilisation de modèles non performants.

Un modèle mathématique est constitué de variables et de paramètres. Pour simplifier, les paramètres sont souvent des multiplicateurs des variables. Calculer un nouveau modèle dans un contexte identique, revient souvent à simplement recalculer les paramètres. Serait-il alors possible d’automatiser le recalcul des paramètres ? Dans la théorie oui. Il suffirait de créer un modèle qui modéliserait les paramètres. Mais cette solution se heurte à un obstacle majeur : le surapprentissage. En l’absence du jugement, et de « l’art » du modeleur, un modèle laissé à lui-même sera tenté d’aller tellement loin dans l’apprentissage qu’il trouvera des motifs répétitifs qui n’existent que dans l’échantillon d’apprentissage. Ces motifs ne sont pas reproduisibles dans l’univers. Le modèle est alors non performant ; on dit qu’il ne « généralise » pas, qu’il est en surapprentissage. Comment alors éviter ce piège, dans le contexte d’un recalcul automatique ?

La réponse s’appelle la « régularisation ». Elle consiste en une équation supplémentaire ajoutée au modèle et qui va volontairement pénaliser celui-ci afin d’être certain qu’il ne tombe pas dans le piège du surapprentissage. Les paramètres de cette équation supplémentaire s’appellent des hyperparamètres.

La méthode s’appelle Apprentissage Automatique ou Machine Learning. Dans le cadre plus général d’applications en Intelligence Artificielle, elle permet à un modèle, à qui on soumettra de nouvelles observations, de recalculer automatiquement ses paramètres afin de s’adapter à un environnement en évolution. Cela se fait au prix d’une pénalisation voulue et contrôlée. Mais cela permet d’avoir des modèles constamment à jour et performants, tout en évitant les recalculs manuels, entrainant ainsi un gain considérable en précision et en coût.

De ce fait, l’Apprentissage Automatique a été une véritable révolution qui a fortement contribué à la généralisation de l’IA et à sa pénétration dans notre vie quotidienne.