1308 Le poète et théologien catalan Ramon Llull publie Ars generalis ultima (L’art général ultime), perfectionnant sa méthode consistant à utiliser des moyens mécaniques sur papier pour créer de nouvelles connaissances à partir de combinaisons de concepts.
1666 Le mathématicien et philosophe Gottfried Leibniz publie Dissertatio de arte combinatoria (Sur l’art combinatoire), suivant Ramon Llull en proposant un alphabet de la pensée humaine et soutenant que toutes les idées ne sont rien d’autre que des combinaisons d’un nombre relativement faible de concepts simples.
1726 Jonathan Swift publie Les Voyages de Gulliver, qui comprend une description du Moteur, une machine sur l’île de Laputa (et une parodie des idées de Llull) : « un projet pour améliorer la connaissance spéculative par des opérations pratiques et mécaniques. » En utilisant ce « Contrivance », « la personne la plus ignorante à un coût raisonnable, et avec un peu de travail corporel, peut écrire des livres de philosophie, de poésie, de politique, de droit, de mathématiques et de théologie, avec la moindre assistance du génie ou de l’étude. »
1763 Thomas Bayes développe un cadre pour raisonner sur la probabilité des événements. L’inférence bayésienne deviendra une approche de premier plan dans l’apprentissage automatique.
1854 George Boole soutient que le raisonnement logique pourrait être effectué systématiquement de la même manière que la résolution d’un système d’équations.
1898 Lors d’une exposition électrique dans le Madison Square Garden récemment achevé, Nikola Tesla fait une démonstration du premier bateau radiocommandé au monde. Le bateau était équipé, comme Tesla l’a décrit, « d’un esprit emprunté ».
1914 L’ingénieur espagnol Leonardo Torres y Quevedo fait la démonstration de la première machine à jouer aux échecs, capable de faire des fins de parties roi et tour contre roi sans aucune intervention humaine.
1921 L’écrivain tchèque Karel Čapek introduit le mot « robot » dans sa pièce R.U.R. (Rossum’s Universal Robots). Le mot « robot » vient du mot « robota » (travail).
1925 Houdina Radio Control sort une voiture sans conducteur radiocommandée, parcourant les rues de New York.
1927 Le film de science-fiction Metropolis sort. Il met en scène le double robotisé d’une paysanne, Maria, qui déclenche le chaos dans le Berlin de 2026 – c’était le premier robot représenté au cinéma, inspirant le look Art déco de C-3PO dans Star Wars.
1929 Makoto Nishimura conçoit Gakutensoku, qui signifie en japonais « apprendre des lois de la nature », le premier robot construit au Japon. Il pouvait changer son expression faciale et bouger sa tête et ses mains via un mécanisme de pression d’air.
1943 Warren S. McCulloch et Walter Pitts publient « A Logical Calculus of the Ideas Immanent in Nervous Activity » dans le Bulletin of Mathematical Biophysics. Cet article influent, dans lequel ils discutent des réseaux de « neurones » artificiels idéalisés et simplifiés et de la façon dont ils pourraient exécuter des fonctions logiques simples, deviendra l’inspiration des « réseaux neuronaux » informatisés (et plus tard de l' »apprentissage profond ») et de leur description populaire comme « imitant le cerveau ». »
1949 Edmund Berkeley publie Giant Brains : Or Machines That Think dans lequel il écrit : » Récemment, on a beaucoup entendu parler d’étranges machines géantes capables de traiter l’information avec une vitesse et une habileté immenses….. Ces machines sont semblables à ce que serait un cerveau s’il était fait de matériel et de fils au lieu de chair et de nerfs… Une machine peut traiter l’information ; elle peut calculer, conclure et choisir ; elle peut effectuer des opérations raisonnables avec l’information. Une machine, par conséquent, peut penser. »
1949 Donald Hebb publie Organization of Behavior : A Neuropsychological Theory dans lequel il propose une théorie sur l’apprentissage basée sur des conjectures concernant les réseaux neuronaux et la capacité des synapses à se renforcer ou à s’affaiblir avec le temps.
1950 « Programming a Computer for Playing Chess » de Claude Shannon est le premier article publié sur le développement d’un programme informatique de jeu d’échecs.
1950 Alan Turing publie « Computing Machinery and Intelligence » dans lequel il propose « le jeu d’imitation » qui sera plus tard connu sous le nom de « Test de Turing. »
1951 Marvin Minsky et Dean Edmunds construisent SNARC (Stochastic Neural Analog Reinforcement Calculator), le premier réseau neuronal artificiel, en utilisant 3000 tubes à vide pour simuler un réseau de 40 neurones.
1952 Arthur Samuel développe le premier programme informatique de jeu de dames et le premier programme informatique à apprendre par lui-même.
31 août 1955 Le terme « intelligence artificielle » est inventé dans une proposition d' »étude de l’intelligence artificielle sur 2 mois et 10 hommes » soumise par John McCarthy (Dartmouth College), Marvin Minsky (Université de Harvard), Nathaniel Rochester (IBM) et Claude Shannon (Bell Telephone Laboratories). L’atelier, qui s’est déroulé un an plus tard, en juillet et août 1956, est généralement considéré comme la date de naissance officielle du nouveau domaine.
Décembre 1955 Herbert Simon et Allen Newell développent le Logic Theorist, le premier programme d’intelligence artificielle, qui finira par prouver 38 des 52 premiers théorèmes des Principia Mathematica de Whitehead et Russell.
1957 Frank Rosenblatt développe le Perceptron, un premier réseau neuronal artificiel permettant la reconnaissance des formes, basé sur un réseau d’apprentissage informatique à deux couches. Le New York Times rapporte que le Perceptron est « l’embryon d’un ordinateur électronique dont on espère qu’il pourra marcher, parler, voir, écrire, se reproduire et être conscient de son existence. » Le New Yorker l’a qualifié de « machine remarquable… capable de ce qui équivaut à la pensée ».
1958 John McCarthy développe le langage de programmation Lisp qui devient le langage de programmation le plus populaire utilisé dans la recherche sur l’intelligence artificielle.
1959 Arthur Samuel invente le terme « apprentissage automatique », en rendant compte de la programmation d’un ordinateur « afin qu’il apprenne à jouer une meilleure partie de dames que celle à laquelle peut jouer la personne qui a écrit le programme ».
1959 Oliver Selfridge publie « Pandemonium : A paradigm for learning » dans les Proceedings of the Symposium on Mechanization of Thought Processes, dans lequel il décrit un modèle pour un processus par lequel les ordinateurs pourraient reconnaître des modèles qui n’ont pas été spécifiés à l’avance.
1959 John McCarthy publie « Programs with Common Sense » dans les Proceedings of the Symposium on Mechanization of Thought Processes, dans lequel il décrit le Advice Taker, un programme pour résoudre des problèmes en manipulant des phrases dans des langages formels avec l’objectif ultime de faire des programmes « qui apprennent de leur expérience aussi efficacement que les humains. »
1961 Le premier robot industriel, Unimate, commence à travailler sur une chaîne de montage dans une usine General Motors du New Jersey.
1961 James Slagle développe SAINT (Symbolic Automatic INTegrator), un programme heuristique qui résolvait les problèmes d’intégration symbolique en calcul de première année.
1964 Daniel Bobrow achève sa thèse de doctorat au MIT intitulée « Natural Language Input for a Computer Problem Solving System » et développe STUDENT, un programme informatique de compréhension du langage naturel.
1965 Herbert Simon prédit que « les machines seront capables, dans les vingt ans, de faire n’importe quel travail qu’un homme peut faire ».
1965 Hubert Dreyfus publie « Alchimie et IA », arguant que l’esprit n’est pas comme un ordinateur et qu’il y a des limites au-delà desquelles l’IA ne progressera pas.
1965 I.J. Good écrit dans « Speculations Concerning the First Ultraintelligent Machine » que « la première machine ultraintelligente est la dernière invention que l’homme devra jamais faire, à condition que la machine soit assez docile pour nous dire comment la garder sous contrôle. »
1965 Joseph Weizenbaum développe ELIZA, un programme interactif qui mène un dialogue en langue anglaise sur n’importe quel sujet. Weizenbaum, qui voulait démontrer la superficialité de la communication entre l’homme et la machine, fut surpris par le nombre de personnes qui attribuèrent au programme informatique des sentiments de type humain.
1965 Edward Feigenbaum, Bruce G. Buchanan, Joshua Lederberg et Carl Djerassi commencent à travailler sur DENDRAL à l’université de Stanford. Premier système expert, il a automatisé le processus de décision et le comportement de résolution de problèmes de chimistes organiques, dans le but général d’étudier la formation d’hypothèses et de construire des modèles d’induction empirique en science.
1966 Le robot Shakey est le premier robot mobile polyvalent capable de raisonner sur ses propres actions. Dans un article du magazine Life de 1970 sur cette « première personne électronique », Marvin Minsky est cité disant avec « certitude » : « D’ici trois à huit ans, nous aurons une machine dotée de l’intelligence générale d’un être humain moyen ».
1968 Le film 2001 : Odyssée de l’espace sort, mettant en scène Hal, un ordinateur doué de sensibilité.
1968 Terry Winograd développe SHRDLU, un premier programme informatique de compréhension du langage naturel.
1969 Arthur Bryson et Yu-Chi Ho décrivent la rétropropagation comme une méthode d’optimisation de système dynamique à plusieurs étapes. Algorithme d’apprentissage pour les réseaux de neurones artificiels multicouches, il a largement contribué au succès de l’apprentissage profond dans les années 2000 et 2010, une fois que la puissance de calcul a suffisamment progressé pour permettre l’entraînement de grands réseaux.
1969 Marvin Minsky et Seymour Papert publient Perceptrons : An Introduction to Computational Geometry, mettant en évidence les limites des réseaux neuronaux simples. Dans une édition augmentée publiée en 1988, ils répondent aux affirmations selon lesquelles leurs conclusions de 1969 ont considérablement réduit le financement de la recherche sur les réseaux neuronaux : « Notre version est que le progrès s’était déjà pratiquement arrêté en raison de l’absence de théories de base adéquates… au milieu des années 1960, il y avait eu un grand nombre d’expériences avec des perceptrons, mais personne n’avait pu expliquer pourquoi ils étaient capables de reconnaître certains types de modèles et pas d’autres. »
1970 Le premier robot anthropomorphe, le WABOT-1, est construit à l’université de Waseda au Japon. Il était composé d’un système de contrôle des membres, d’un système de vision et d’un système de conversation.
1972 MYCIN, un premier système expert permettant d’identifier les bactéries responsables d’infections graves et de recommander des antibiotiques, est développé à l’université de Stanford.
1973 James Lighthill rend compte au Conseil de recherche scientifique britannique de l’état de la recherche sur l’intelligence artificielle, concluant que « dans aucune partie du domaine, les découvertes faites jusqu’à présent n’ont produit l’impact majeur qui était alors promis », ce qui conduit à une réduction drastique du soutien gouvernemental à la recherche sur l’IA.
1976 L’informaticien Raj Reddy publie « Speech Recognition by Machine : A Review » dans les Proceedings of the IEEE, résumant les premiers travaux sur le traitement du langage naturel (NLP).
1978 Le programme XCON (eXpert CONfigurer), un système expert à base de règles aidant à la commande des ordinateurs VAX de DEC en sélectionnant automatiquement les composants en fonction des exigences du client, est développé à l’université Carnegie Mellon.
1979 Le Stanford Cart traverse avec succès une pièce remplie de chaises sans intervention humaine en cinq heures environ, devenant ainsi l’un des premiers exemples de véhicule autonome.
1980 Wabot-2 est construit à l’université Waseda au Japon, un robot humanoïde musicien capable de communiquer avec une personne, de lire une partition musicale et de jouer des airs de difficulté moyenne sur un orgue électronique.
1981 Le ministère japonais du Commerce international et de l’Industrie budgétise 850 millions de dollars pour le projet d’ordinateur de cinquième génération. Ce projet visait à développer des ordinateurs capables de tenir des conversations, de traduire des langues, d’interpréter des images et de raisonner comme des êtres humains.
1984 Sortie de Electric Dreams, un film sur un triangle amoureux entre un homme, une femme et un ordinateur personnel.
1984 Lors de la réunion annuelle de l’AAAI, Roger Schank et Marvin Minsky mettent en garde contre l' »hiver de l’IA » à venir, prédisant un éclatement immanent de la bulle de l’IA (qui s’est effectivement produit trois ans plus tard), similaire à la réduction des investissements dans l’IA et du financement de la recherche au milieu des années 1970.
1986 Première voiture sans conducteur, une camionnette Mercedes-Benz équipée de caméras et de capteurs, construite à l’université de la Bundeswehr à Munich sous la direction d’Ernst Dickmanns, roule jusqu’à 55 mph dans des rues vides.
Octobre 1986 David Rumelhart, Geoffrey Hinton et Ronald Williams publient « Learning representations by back-propagating errors », dans lequel ils décrivent « une nouvelle procédure d’apprentissage, la rétropropagation, pour les réseaux d’unités de type neurone. »
1987 La vidéo Knowledge Navigator, qui accompagne le discours d’ouverture du PDG d’Apple, John Sculley, à Educom, envisage un avenir dans lequel « les applications de connaissances seraient accessibles par des agents intelligents travaillant sur des réseaux connectés à des quantités massives d’informations numérisées. »
1988 Judea Pearl publie Probabilistic Reasoning in Intelligent Systems. Sa citation du prix Turing 2011 se lit comme suit : « Judea Pearl a créé la base représentationnelle et computationnelle pour le traitement de l’information dans l’incertitude. On lui doit l’invention des réseaux bayésiens, un formalisme mathématique permettant de définir des modèles de probabilité complexes, ainsi que les principaux algorithmes utilisés pour l’inférence dans ces modèles. Ce travail a non seulement révolutionné le domaine de l’intelligence artificielle, mais est également devenu un outil important pour de nombreuses autres branches de l’ingénierie et des sciences naturelles. »
1988 Rollo Carpenter développe le chat-bot Jabberwacky pour « simuler le chat humain naturel d’une manière intéressante, divertissante et humoristique. » Il s’agit d’une première tentative de création d’une intelligence artificielle par le biais de l’interaction humaine.
1988 Des membres du centre de recherche IBM T.J. Watson publient « A statistical approach to language translation », annonçant le passage de méthodes de traduction automatique basées sur des règles à des méthodes probabilistes, et reflétant un passage plus large à « l’apprentissage automatique » basé sur l’analyse statistique d’exemples connus, et non sur la compréhension et la « compréhension » de la tâche à accomplir (le projet Candide d’IBM, traduisant avec succès l’anglais et le français, était basé sur 2.2 millions de paires de phrases, provenant pour la plupart des actes bilingues du parlement canadien).
1988 Marvin Minsky et Seymour Papert publient une édition augmentée de leur livre de 1969, Perceptrons. Dans « Prologue : A View from 1988 », ils écrivent : « Une des raisons pour lesquelles les progrès ont été si lents dans ce domaine est que les chercheurs qui ne sont pas familiers avec son histoire ont continué à faire beaucoup des mêmes erreurs que d’autres ont faites avant eux. »
1989 Yann LeCun et d’autres chercheurs à AT&T Bell Labs appliquent avec succès un algorithme de rétropropagation à un réseau neuronal multicouche, reconnaissant des codes postaux manuscrits. Compte tenu des limitations matérielles de l’époque, il a fallu environ 3 jours (ce qui représente tout de même une amélioration significative par rapport aux efforts précédents) pour former le réseau.
1990 Rodney Brooks publie « Elephants Don’t Play Chess », proposant une nouvelle approche de l’IA – construire des systèmes intelligents, spécifiquement des robots, à partir de la base et sur la base d’une interaction physique permanente avec l’environnement : « Le monde est son propre meilleur modèle… L’astuce consiste à le sentir de manière appropriée et assez souvent. »
1993 Vernor Vinge publie « The Coming Technological Singularity », dans lequel il prédit que « d’ici trente ans, nous aurons les moyens technologiques de créer une intelligence surhumaine. Peu après, l’ère humaine sera terminée. »
1995 Richard Wallace développe le chatbot A.L.I.C.E (Artificial Linguistic Internet Computer Entity), inspiré du programme ELIZA de Joseph Weizenbaum, mais avec l’ajout de la collecte d’échantillons de données en langage naturel à une échelle sans précédent, permise par l’avènement du Web.
1997 Sepp Hochreiter et Jürgen Schmidhuber proposent la mémoire à long terme (LSTM), un type de réseau neuronal récurrent utilisé aujourd’hui dans la reconnaissance de l’écriture manuscrite et de la parole.
1997 Deep Blue devient le premier programme informatique de jeu d’échecs à battre un champion du monde en titre.
1998 Dave Hampton et Caleb Chung créent Furby, le premier robot domestique ou de compagnie.
1998 Yann LeCun, Yoshua Bengio et d’autres publient des articles sur l’application des réseaux neuronaux à la reconnaissance de l’écriture et sur l’optimisation de la rétropropagation.
2000 Cynthia Breazeal du MIT développe Kismet, un robot qui pourrait reconnaître et simuler des émotions.
2000 Le robot ASIMO de Honda, un robot humanoïde artificiellement intelligent, est capable de marcher aussi vite qu’un humain, en livrant des plateaux aux clients dans un restaurant.
2001 Sortie de A.I. Artificial Intelligence, un film de Steven Spielberg sur David, un androïde enfantin uniquement programmé avec la capacité d’aimer.
2004 Le premier DARPA Grand Challenge, une compétition de prix pour les véhicules autonomes, se tient dans le désert de Mojave. Aucun des véhicules autonomes n’a terminé le parcours de 150 miles.
2006 Oren Etzioni, Michele Banko et Michael Cafarella inventent le terme « lecture automatique », le définissant comme une « compréhension autonome du texte » intrinsèquement non supervisée. »
2006 Geoffrey Hinton publie « Learning Multiple Layers of Representation », résumant les idées qui ont conduit aux « réseaux neuronaux multicouches contenant des connexions descendantes et les entraînant à générer des données sensorielles plutôt qu’à les classer », c’est-à-dire, les nouvelles approches de l’apprentissage profond.
2007 Fei Fei Li et ses collègues de l’université de Princeton commencent à assembler ImageNet, une grande base de données d’images annotées conçue pour faciliter la recherche sur les logiciels de reconnaissance visuelle des objets.
2009 Rajat Raina, Anand Madhavan et Andrew Ng publient « Large-scale Deep Unsupervised Learning using Graphics Processors », arguant que « les processeurs graphiques modernes dépassent de loin les capacités de calcul des CPU multicœurs, et ont le potentiel de révolutionner l’applicabilité des méthodes d’apprentissage profond non supervisé. »
2009 Google commence à développer, en secret, une voiture sans conducteur. En 2014, elle devient la première à réussir, dans le Nevada, un test de conduite autonome de l’État américain.
2009 Des informaticiens du Laboratoire d’information intelligente de l’Université Northwestern développent Stats Monkey, un programme qui rédige des articles de presse sportive sans intervention humaine.
2010 Lancement de l’ImageNet Large Scale Visual Recognition Challenge (ILSVCR), un concours annuel de reconnaissance d’objets par l’IA.
2011 Un réseau neuronal convolutif remporte le concours allemand de reconnaissance des panneaux de signalisation avec une précision de 99,46 % (contre 99,22 % pour les humains).
2011 Watson, un ordinateur répondant à des questions en langage naturel, participe à Jeopardy ! et bat deux anciens champions.
2011 Des chercheurs de l’IDSIA en Suisse font état d’un taux d’erreur de 0,27 % dans la reconnaissance de l’écriture manuscrite à l’aide de réseaux neuronaux convolutifs, ce qui constitue une amélioration significative par rapport au taux d’erreur de 0.35%-0,40% du taux d’erreur des années précédentes.
Juin 2012 Jeff Dean et Andrew Ng rapportent une expérience dans laquelle ils ont montré à un très grand réseau neuronal 10 millions d’images non étiquetées prises au hasard dans des vidéos YouTube, et « à notre amusement, l’un de nos neurones artificiels a appris à répondre fortement aux images de… chats. »
Octobre 2012 Un réseau de neurones convolutifs conçu par des chercheurs de l’Université de Toronto atteint un taux d’erreur de seulement 16% dans le défi de reconnaissance visuelle à grande échelle ImageNet, une amélioration significative par rapport au taux d’erreur de 25% atteint par la meilleure entrée l’année précédente.
Mars 2016 AlphaGo de Google DeepMind bat le champion de Go Lee Sedol.
Le Web (en particulier Wikipedia) est une grande source pour l’histoire de l’intelligence artificielle. D’autres sources clés comprennent Nils Nilsson, The Quest for Artificial Intelligence : A History of Ideas and Achievements ; Stuart Russell et Peter Norvig, Artificial Intelligence : A Modern Approach ; Pedro Domingos, The Master Algorithm : How the Quest for the Ultimate Learning Machine Will Remake Our World ; et Artificial Intelligence and Life in 2030. Veuillez faire des commentaires concernant les omissions et les inexactitudes involontaires.
Voir également Une très courte histoire de la science des données, Une très courte histoire du Big Data et Une très courte histoire des technologies de l’information (TI).
Suivez-moi sur Twitter ou LinkedIn. Consultez mon site web.