Le machine learning

Le machine learning

« Il n’y a pas d’intelligence sans apprentissage », affirme Yann Le Cun, patron de l’Intelligence Artificielle (IA) chez Facebook. C’est dans cette logique que s’inscrit le machine learning, une technique dIntelligence Artificielle inventée en 1959 par Arthur Samuel et qui est aujourd’hui en plein essor avec l’avènement du Big Data ( Hadoop, MapReduce, etc.). La grande majorité des systèmes d’IA actuels médiatisés utilisent ce processus d’apprentissage qui permet à la machine d’évoluer sans que ses algorithmes ne soient modifiés.

Présentation de la technique

Le machine learning ou apprentissage automatique permet à une machine d’évoluer par un processus systématique et d’effectuer des tâches pour lesquelles elle n’est pas explicitement programmée en apprenant avec des données. Ce procédé regroupe trois grandes méthodes d’apprentissage :

La méthode statistique d’apprentissage de classes ou Apprentissage Supervisé

Il s’agit d’un apprentissage à partir d’exemples dans lesquels le résultat attendu est fourni avec les données d’entrée. On montre par exemple des milliers de photos d’avion à la machine (et des contre-exemples) qui saura statistiquement au bout d’un moment les reconnaître par analogie. Le système a une entrée et une sortie.

C’est la méthode la plus usitée à l’heure actuelle, elle permet de réaliser notamment un moteur de prédiction. Par exemple, la machine peut traiter des informations sur les films qu’on aime. Elle les analyse ensuite pour recommander de nouveaux films qui répondent. Elle apprend «seule» par l’entraînement.

Methode statistique d'apprentissage

Google en a fait l’expérience avec des photos de chats : la machine reconnaît grâce à un réseau de neurones multicouches des pixels, puis des moustaches, des oreilles, des yeux, une tête et enfin un chat. On parle alors de «Deeplearning», car on empile les étapes de machine learning plus profondément.

Cette méthode comprend des arbres de décision probabilistes, dont les calculs statistiques permettent de prévoir la probabilité d’un événement en fonction de l’analyse des actions ou des évènements passés.

On nourrit l’algorithme d’exemples dont les résultats sont connus par l’humain nourricier. Il note les différences entre prévisions et résultats corrects, puis affine ses prédictions par statistiques et probabilité jusqu’à ce qu’elles soient optimisées.

L’idée générale majeure du machine learning ou du deep learning est de trouver des relations de dépendance et de causalité entre plusieurs facteurs. Par exemple, détecter de possibles fraudes dans les achats par cartes bancaires ou prédire ce qu’est en train de taper un internaute quand il effectue une recherche sur le web. Le cerveau humain utilise cette logique pour se mouvoir : «je sais que statistiquement je tombe si je marche les yeux fermés, donc je ne le fais pas».

Les techniques telles que le Champ Aléatoire Conditionnel ou CRF, le SVM ou machine à vecteurs de support, le KNN (méthode des k plus proches voisins), la régression statistique, l’apprentissage relationnel, les réseaux de Markov ou bayésiens, les réseaux de neurones et le deeplearning avec ses résultats spectaculaires, appartiennent toutes à la méthode d’apprentissage supervisé.

La méthode dite de clustering ou Apprentissage Non Supervisé

Aussi appelé apprentissage prédictif, la méthode d’apprentissage non supervisé consiste à apprendre à la machine le fonctionnement du monde, comme on le ferait avec un enfant. Cet apprentissage n’en est qu’à ses balbutiements, le système dispose uniquement des données en entrée sans qu’on lui indique le résultat attendu en sortie (à la différence de l’apprentissage supervisé où l’on indique la réponse qui était attendu pour que la machine puisse apprendre). Il les classe selon des critères essentiellement statistiques qu’il appliquera pour discriminer les nouvelles entrées.

On ne guide pas la machine en lui donnant les bonnes ou mauvaises réponses en sortie dans la mesure où l’on ne maîtrise pas soi-même la réponse à donner : c’est ainsi que fonctionne le cerveau humain qui cherche à prédire le futur, d’où le terme apprentissage prédictif. Le cerveau apprend sur le monde en émettant des hypothèses qu’il vérifie petit à petit.

Ce procédé fait appel à la technique du K means ou K moyennes en français (méthode de partitionnement de données et problème d’optimisation combinatoire) et à celle du clustering ou regroupement hiérarchique (répartition d’individus dans différentes classes).

Méthode d’apprentissage par renforcement

La technique d’apprentissage par renforcement

La méthode d’apprentissage par renforcement est la plus faible des techniques d’apprentissage automatique. Il s’agit d’un apprentissage par essai/erreur utilisé pour les jeux comme le programme AlphaGo. Le système a une entrée et teste des sorties avec la probabilité de gagner la partie après avoir posé une pierre sur une intersection, notamment dans le jeu de Go.

La méthode est faible car très lente et demande de faire tourner les options des millions de fois. On procède comme pour un animal qu’on dresse. On lui fait faire des choses et quand il réussit, on lui donne une récompense. Ainsi, on ne donne pas la réponse correcte à la machine, on attend qu’elle la produise.

Méthode ML

Comment marche le ML concrètement?

Comme toujours en IA, tout part des données (plus ou moins nombreuses) parmi lesquels nous cherchons à trouver des liens, des relations entre elles.

Par exemple, on peut disposer de données concernant la taille d’hommes et la taille de pieds puis chercher des relations entre elles

On pourra par exemple tenter de placer le rapport de l’un par l’autre entre des valeurs x et y pour établir qu’un pied mesure en moyenne z% de la taille d’un homme. A partir de cela, on pourrait établir la taille d’un homme en fonction de sa taille de pied ou le contraire.

En machine learning, c’est l’algorithme qui va chercher cette relation, y compris si de nombreuses variables sont en jeu (et pas que 2 comme dans l’exemple). Autrement dit, la machine va pouvoir extrapoler, généraliser, en fonction de très nombreuses données d’entrée. La phase pendant laquelle la machine va tenter de trouver des corrélations, une « équation », est la fameuse phase d’apprentissage.

C’est ainsi que Facebook présentera seulement certains fils et pas tous: en entrée, l’algorithme prend des données (qui a posté, quand, quel est le sujet, nombre de likes…) puis il essaie de prédire si vous allez être intéressé ou non.

La reconnaissance d’images utilise de la même façon le machine learning : la machine est nourrie d’images en entrée puis elle doit deviner ce qui y est représenté en sortie.

D’autres articles sur le même thème

Systèmes experts

Les systèmes experts (ou moteurs de règles) sont une technique de l’IA, qui permettent de reproduire les mécanismes cognitifs d’une personne dans un domaine bien particulier.

Système multi agents et IA Distribuée

Les systèmes experts (ou moteurs de règles) sont une technique de l’IA, qui permettent de reproduire les mécanismes cognitifs d’une personne dans un domaine bien particulier.

La résolution de problèmes

L’Intelligence Artificielle se caractérise par une approche nouvelle dans le traitement informatique des problèmes.

Le chaine TAL

L’Intelligence Artificielle se caractérise par une approche nouvelle dans le traitement informatique des problèmes.

Les réseaux neuronaux

De nos jours, on ne peut pas parler de machine learning sans parler de réseau de neurones artificiels, un ensemble d’algorithmes dont le fonctionnement est inspiré des neurones biologiques et qui s’appuie également sur les méthodes statistiques.

Le web sémantique

Le web sémantique permet à la machine de comprendre le langage humain et de le contextualiser.