Le Deep Learning réalise des choses merveilleuses au retentissement médiatique incroyable et à la hauteur des prouesses qu’il permet de réaliser. Pour autant, le Vulgum Pecus a de plus en plus tendance à penser qu’Intelligence Artificielle = Deep Learning et c’est une erreur que commettent aussi un peu trop les géants du digital. Grossière dirons-nous, surtout devant les milliards d’euros qui y sont engloutis, à tout le moins si leur ambition est bien de modéliser une intelligence digitalisée.

Nous allons tenter d’expliquer simplement pourquoi.

Notre intelligence n’est pas (que) mathématique

La différence principale entre la véritable intelligence et l’intelligence artificielle assimilée au seul DeepLearning réside dans les subtilités de la première que la seconde n’a pas et, mieux, n’aura jamais. Car la seconde, comprenez-le bien, n’est QUE mathématique et QUE statistique. C’est seulement, pour ainsi dire, un modèle de classification ou de clusterisation; rien de plus.

Aussi, aussi merveilleuse puisse-t-elle être (vaincre un humain au jeu de GO par exemple, excusez du peu !), elle ne permettra jamais à la machine d‘évoluer dans l’univers nuancé dans lequel, nous, nous évoluons. En effet, sortie de la zone normée, mathématiques et circonscrite du jeu (de société ou vidéo), son système d’effondre.

Le Deep Learning – même s’il représente déjà un énorme bond en avant – ne touche du doigt le registre de l’intelligence qu’au travers de ce l’on pourrait classer en deux grandes catégories :

  • la perception (essentielle à l’intelligence, mais simple donnée d’ « entrée » pour notre cerveau) telle que reconnaissance d’images ou reconnaissance vocale par exemple, et
  • système prédictif. Par exemple : si vous avez mangé des carottes ce jeudi et que vous écoutez du Céline Dion vendredi, il y a alors 77.35% de chance que, la semaine prochaine, vous achetiez une voiture. Ce second pan, très utilisé – on l’aura compris de par l’exemple – dans le marketing, la gestion de stock ou encore l’industrie 4.0 (avec la maintenance prédictive), n’est donc qu’analyse prédictive statistique et probabiliste.

Pour faire très simple : j’ai une droite de type « y=ax+b » bâtie sur les données du passé qui me permet par la suite d’en déduire en entrant un futur « x » la valeur « Y ». Pour autant, et c’est ce que beaucoup reprochent déjà au Deep Learning en parlant de « boîte noire »,

le modèle d’apprentissage en profondeur n’explique pas la cause.

En gros, c’est super de pouvoir prédire, mais c’est mieux de pouvoir expliquer pourquoi : la machine peut prédire un taux de churn clients de 28% mais si le modèle ne vous dit pas quels facteurs expliquent ce taux, la prédiction – même correcte – a, avouons-le, beaucoup moins de valeur puisqu’elle ne peut donner lieu ensuite à aucune action (d’anticipation, de correction…).

L’apprentissage en clef de voûte

Les chercheurs ont compris depuis des années (rappelons que le Machine Learning est une discipline vieille de 30 ans…) que la puissance du cerveau humain réside entre autres dès son plus jeune âge dans sa capacité à apprendre. Je ne peux par exemple reconnaître la lettre A que parce que je l’ai précédemment apprise. Je ne peux décrypter les hiéroglyphes que parce que je dispose de la Pierre de Rosette et que j’ai appris le Grec Ancien et/ou le démotique au préalable.

Deep Learning Apprentissage In Principio Intelligence Artificielle

Les facultés d’apprentissage du tout-petit sont étonnantes

Le Deep Learning, forme avancée de Machine Learning, nécessite énormément de datas « étiquetées » (c’est-à-dire décrivant ce que c’est) en entrée : je montre des millions d’images de chats à la machine et elle deviendra capable d’en reconnaître un, plus tard. Le cerveau humain est, lui, capable de cela en ne voyant potentiellement que 2 chats….Tout se passe comme si le cerveau des tout-petits avaient été préconfiguré pour être capable de se représenter les caractéristiques visuelles primitives (formes, arêtes,…). Par exemple, une forme quelle qu’elle soit, munie de deux yeux, et qui n’est pas un humain, est pour un enfant – a priori (concept de primitive) – un animal.

On comprend-là, soit dit en passant, une des limites des algorithmes face à la puissance non seulement de notre cerveau mais de tout notre organisme. Nous sommes largement aidés par nos ressentis, impressions et expériences : la robotique devrait permettre de faire faire énormément de progrès aux algorithmes grâces aux capteurs perceptifs dont ils pourraient être équipés à l’avenir. Cela permettra aux algorithmes de fonctionner de façon causale (ce que ne fait pas le Deep Learning puisque fonctionnant de façon statistique, nous l’avons dit). 

Le DeepLearning n’est pas la panacée de l’apprentissage

Tout se passe comme si l’esprit humain n’apprenait jamais à partir de rien. Notre cerveau est capable de « capturer » très tôt des « primitives », concepts à partir desquels tout est ensuite appris. Par exemple, le concept de hauteur : je vois un objet plus haut que le sol (comme une chaise) et je « capte » que si un autre est posé dessus, il est lui-même plus haut que le sol. Potentiellement, je pourrais donc moi-même monter sur la chaise pour être plus haut. Et ainsi de suite.

Le Deep Learning, au contraire, se passe de ces primitives : la masse de data est censée permettre à la machine d’apprendre « seule » et à partir de rien (!), en construisant elle-même ses similitudes statistiques. On perçoit là le plafond de verre auquel vont se heurter les géants du web en matière de simulation du raisonnement, eux qui ont tous fait le pari aveugle du Deep Learning.

Kevin Murphy, PhD à Berkeley, ancien professeur de Columbia et chercheur chez Google depuis 2011 est aussi de cet avis. Et son avis compte tout particulièrement puisqu’il est un expert de l’IA, du Machine Learning, du Traitement Automatique du Langage Naturel et de la vision par ordinateur. A ce titre, il a par exemple travaillé pour Google sur l’extraction de données depuis des pages web et au stockage de celles-ci dans une énorme base de données probabiliste.

Selon lui, le problème principal repose sur le fait que les méthodes actuelles d’apprentissage en profondeur nécessitent beaucoup trop de données et beaucoup trop de temps en comparaison des capacités humaines largement plus rapides et à partir de tout petits échantillons. Cela provient notamment du fait que nous utilisons plusieurs formes de représentation des connaissances (voir Lis Spelke et les « connaissances de base chez les enfants », ou encore Josh Tenenbaum) et que notre cerveau est capable d’exercer une autre gymnastique intellectuelle remarquable pour apprendre, par exemple par analogie.

Même Yann LeCun le dit

Selon le patron de l’IA chez Facebook lui-même, le français Yann LeCun, l’un des papes du moment du DeepLearning et des réseaux convolutifs, les modèles classiques ne permettront pas à la machine de raisonner, c’est à dire à partir de longues chaînes d’inférences autorisant à partir d’une question, d’arriver à une réponse construite. En effet, en Deep Learning, le nombre d’étapes est limité « matériellement » par le nombre de couches dans les réseaux (et par sa mémoire).

Dit autrement, aujourd’hui, on peut entrer des millions de datas (supervisés par un humain et taggées) en entrée pour UN résultat en sortie (exemple : des images de chevaux pour que, sur la base d’une nouvelle image de cheval, la machine soit capable d’annoncer que « statistiquement » la nouvelle image montrée et jamais vue auparavant présente les mêmes caractéristiques clefs qu’un cheval). Or, « raisonner » induirait que la machine soit capable d’avoir un ensemble de sorties alternatives. Exemple : le DeepLearning sait donner en sortie UNE traduction de phrase mais pas les différentes façons dont la phrase pourrait être traduite.

Il faudrait donc selon lui pousser encore plus loin le Deep Learning pour aboutir à un raisonnement…Pas sûr que ce soit la voie.

Comment la machine pourrait le mieux s’inspirer de la mécanique humaine

Le cerveau humain bâtit pas-à-pas ses représentations mentales sous formes d’objets (au niveau conceptuel), avec chacun ses attributs, les relie entre eux et les actionne à l’envie selon les situations. L’approche pluridisciplinaire (IA, mathématique, algorithmique, TAL, sciences cognitives, etc…) est donc absolument nécessaire pour reproduire le raisonnement humain et c’est cette reproduction inédite du système cognitif cérébral qu’est en passe de réussir la start-up In Principio.

Le Deep Learning, aussi merveilleux soit-il, n’est pas sous cet angle LA solution à la modélisation du cerveau humain. Il y contribuera sans doute dans l’avenir, comme un simple outil, mais pas une solution magique à même à elle-seule de contribuer à la résolution de problèmes à la hauteur des capacités de notre esprit.

En outre, après avoir évoqué le problème du software, n’oublions pas le problème du hardware car le Deep Learning est extrêmement gourmand en ressources. Par exemple, on voit rarement des modèles d’apprentissage en profondeur sur de grandes images/vidéos. A l’heure actuelle, pour les images, les plus grandes en entrée sont de format 224 x 224 (Imagenet) voire 300x300. Autrement dit, cela ne fonctionne pas sur des images de plusieurs mégapixels comme les perçoit l’œil humain.

Et que ce soit dans l’imagerie ou dans d’autres domaines, continuer à progresser en DeepLearning induit que nous parvenions à augmenter drastiquement le nombre de neurones dans chaque couche et le nombre de couches dans le réseau. La conséquence est directe : pareille enrichissement de l’algorithme se traduit par une vitesse de calcul accrue et des besoins matériels aux performances sans cesse croissantes. Croyez-vous que cette course folle en avant vers des processeurs et supercalculateurs quantiques (quand un neurone humain tourne à moins de 40mV) et des boîtes noires statistiques deeplearningienne  soient vraiment les voies à la modélisation digitale du cerveau humain ?

Vous pourriez aimer aussi cet article: l’ IA au coeur d’une nouvelle guerre froide

Notre Tweetmag

Share This

Partagez

Partagez cet article à vos amis