L’IA depuis les années 1950

L’IA depuis les années 1950

L’histoire de l’Intelligence Artificielle a évolué en dents de scie lors des cinquante dernières années.

Elle a connu des périodes fastes entre 1957 et 1973, des moments de disette jusqu’au début des années 1980 et de désillusion durant la décennie 1990, le matériel ne suivant pas les besoins.

La réduction des investissements destinés au développement de l’IA ont suivi les mauvais résultats et les attentes décevantes. Mais portés par la digitalisation de l’économie depuis les années 90 les recherches ont repris de plus belle et les programmes intelligents sont aujourd’hui incontournables dans de nombreux domaines.

De 1950 aux années 1990

L’année 1950 est un tournant décisif dans l’histoire de l’Intelligence Artificielle, avec la publication de l’article «Computing Machineryand Intelligence» d’Alan Turing. Dans son article, l’auteur pose les fondements de l’I.A moderne et y décrit le test de Turing qui met au défi des testeurs (hommes et femmes) de reconnaître si leur interlocuteur est un humain ou une machine, grâce à l’analyse des réponses à une série de questions.

Vers la fin des années 1950, John McCarthy et Fernando Corbató créent la technique du temps partagé et le langage LISP qui permettent l’utilisation partagée et simultanée des performances d’un ordinateur grâce à l’usage des temps morts des calculs d’un utilisateur au profit d’un second. John McCarthy, un des organisateurs de la conférence de Dartmouth en 1956, est considéré avec Marvin Lee Minsky comme le pionnier de l’Intelligence Artificielle.  Il représente le courant qui privilégie la logique symbolique.

John McCarthy

Après les années 1950, l’essor de l’Intelligence Artificielle va aboutir à l’invention des Systèmes experts dans les années 1980, des programmes pouvant simuler une tâche précise d’un expert humain, programmes que l’on retrouve dans de très, très nombreuses applications industrielles quotidiennes.

L’IA entre ensuite dans une ère de perfection, avec des machines de plus en plus intelligentes. En 1997, le champion du monde russe Garry Kasparov est battu par un supercalculateur d’IBM appelé Deep Blue, après deux matchs de six parties. Un événement qui marquera les esprits et donnera ses lettres de noblesse à la renaissance de l’IA moderne.

La fin des années 1990 fait apparaître des avancées notables de l’IA, avec le développement d’internet, des moteurs de recherche et surtout des technologies hardware à présent suffisamment performantes et disposant de capacités de stockage sans précédent.

Vidéo sur les jeux d’échec informatiques et la victoire de Deep Blue

L’accélération à partir des années 2000

L’accélération à partir des années 2000

Le développement des technologies intelligentes a amorcé une accélération fulgurante à partir des années 2000, grâce à la croissance exponentielle de la puissance de calcul et de stockage.

On assiste aujourd’hui à l’explosion des technologies et des applications révolutionnaires concrètes telles que la reconnaissance d’images, la colorisation automatique d’images, le sous-titrage automatique de centaines de millions de vidéos youtube ou encore le développement de voitures autonomes ou de la robotique.

Les années sombres de l’IA sont désormais reléguées au passé. Après 1973, les investisseurs, notamment la DARPA aux Etats-Unis, avaient commencé à réduire leurs budgets, parce que les résultats n’étaient pas à la hauteur de leurs attentes. Cet agence dédiée à la Recherche et Développement militaire a depuis repris ses investissements dans l’IA, ce qui prouve le nouvel intérêt qu’y voient certains gouvernements ne serait-ce qu’en matière de défense (cyber sécurité, combattants artificiels, etc…)

Le regain d’intérêt actuel pour l’IA se justifie sans conteste par des symboles forts de succès qu’elle enregistre régulièrement (IBM Watson 2011, DeepMind au jeu de Go 2016), par l’avènement du Web, du Cloud, du BigData et par la démultiplication des applications business concrètes qui fleurissent à présent.