1308 Den katalanske poeten och teologen Ramon Llull publicerar Ars generalis ultima (Den ultimata allmänna konsten), där han ytterligare finslipade sin metod att med hjälp av pappersbaserade mekaniska hjälpmedel skapa ny kunskap från kombinationer av begrepp.
1666 Matematikern och filosofen Gottfried Leibniz publicerar Dissertatio de arte combinatoria (Om den kombinatoriska konsten), där han efter Ramon Llull föreslår ett alfabet för mänskligt tänkande och hävdar att alla idéer inte är något annat än kombinationer av ett relativt litet antal enkla begrepp.
1726 Jonathan Swift publicerar Gullivers resor, som innehåller en beskrivning av Engine, en maskin på ön Laputa (och en parodi på Llulls idéer): ”ett projekt för att förbättra den spekulativa kunskapen genom praktiska och mekaniska operationer”. Med hjälp av denna ”konstruktion” kan ”den mest okunniga personen till en rimlig kostnad och med lite kroppsarbete skriva böcker i filosofi, poesi, politik, juridik, matematik och teologi, utan minsta hjälp av geni eller studier.”
1763 Thomas Bayes utvecklar ett ramverk för att resonera om sannolikheten för händelser. Bayesiansk inferens blir ett ledande tillvägagångssätt inom maskininlärning.
1854 George Boole hävdar att logiska resonemang kan utföras systematiskt på samma sätt som att lösa ett ekvationssystem.
1898 Vid en elektrisk utställning i den nyligen färdigställda Madison Square Garden gör Nikola Tesla en demonstration av världens första radiostyrda farkost. Båten var utrustad med, som Tesla beskrev det, ”ett lånat sinne”.
1914 Den spanske ingenjören Leonardo Torres y Quevedo demonstrerar den första schackspelsmaskinen, som kan spela kung och torn mot kung-slutspel utan mänskligt ingripande.
1921 Den tjeckiske författaren Karel Čapek introducerar ordet ”robot” i sin pjäs R.U.R. (Rossum’s Universal Robots). Ordet ”robot” kommer från ordet ”robota” (arbete).
1925 Houdina Radio Control släpper en radiostyrd förarlös bil som färdas på New Yorks gator.
1927 Science fiction-filmen Metropolis har premiär. Den innehåller en robotdubbel av en bondflicka, Maria, som utlöser kaos i Berlin år 2026 – det var den första roboten som skildrades på film och inspirerade Art Deco-utseendet hos C-3PO i Star Wars.
1929 Makoto Nishimura designar Gakutensoku, japanska för ”lära sig av naturlagarna”, den första roboten som byggdes i Japan. Den kunde ändra sitt ansiktsuttryck och flytta sitt huvud och sina händer via en lufttrycksmekanism.
1943 Warren S. McCulloch och Walter Pitts publicerar ”A Logical Calculus of the Ideas Immanent in Nervous Activity” i Bulletin of Mathematical Biophysics. Denna inflytelserika artikel, där de diskuterar nätverk av idealiserade och förenklade artificiella ”neuroner” och hur de skulle kunna utföra enkla logiska funktioner, kommer att bli inspirationen till datorbaserade ”neurala nätverk” (och senare ”djupinlärning”) och deras populära beskrivning av att de ”efterliknar hjärnan”.
1949 Edmund Berkeley publicerar Giant Brains: Or Machines That Think där han skriver: ”På senare tid har det funnits en hel del nyheter om märkliga jättemaskiner som kan hantera information med enorm snabbhet och skicklighet…. Dessa maskiner liknar vad en hjärna skulle vara om den var gjord av hårdvara och trådar i stället för av kött och nerver… En maskin kan hantera information; den kan beräkna, dra slutsatser och välja; den kan utföra rimliga operationer med information. En maskin kan därför tänka.”
1949 Donald Hebb publicerar Organization of Behavior: A Neuropsychological Theory där han föreslår en teori om inlärning som bygger på gissningar om neurala nätverk och synapsernas förmåga att förstärkas eller försvagas med tiden.
1950 Claude Shannons ”Programming a Computer for Playing Chess” är den första publicerade artikeln om utveckling av ett datorprogram för schackspel.
1950 Alan Turing publicerar ”Computing Machinery and Intelligence” där han föreslår ”imitationsspelet”, som senare kommer att bli känt som ”Turingtestet”.”
1951 Marvin Minsky och Dean Edmunds bygger SNARC (Stochastic Neural Analog Reinforcement Calculator), det första artificiella neurala nätverket, med hjälp av 3 000 vakuumrör för att simulera ett nätverk med 40 neuroner.”
1952 Arthur Samuel utvecklar det första datorprogrammet för damspel och det första datorprogrammet som lär sig på egen hand.
31 augusti 1955 Begreppet ”artificiell intelligens” myntas i ett förslag om en ”2 månader lång studie av artificiell intelligens med 10 personer” som lämnas in av John McCarthy (Dartmouth College), Marvin Minsky (Harvard University), Nathaniel Rochester (IBM) och Claude Shannon (Bell Telephone Laboratories). Workshopen, som ägde rum ett år senare, i juli och augusti 1956, betraktas allmänt som det nya fältets officiella födelsedatum.
December 1955 Herbert Simon och Allen Newell utvecklar Logic Theorist, det första programmet för artificiell intelligens, som så småningom skulle bevisa 38 av de första 52 satserna i Whiteheads och Russells Principia Mathematica.
1957 Frank Rosenblatt utvecklar Perceptronen, ett tidigt artificiellt neuralt nätverk som möjliggör mönsterigenkänning baserat på ett datorinlärande nätverk i två lager. New York Times rapporterade att Perceptron var ”embryot till en elektronisk dator som förväntas kunna gå, tala, se, skriva, reproducera sig själv och vara medveten om sin existens”. The New Yorker kallade den för en ”anmärkningsvärd maskin… som är kapabel att tänka.”
1958 John McCarthy utvecklar programmeringsspråket Lisp som blir det mest populära programmeringsspråket som används inom forskningen om artificiell intelligens.
1959 Arthur Samuel myntar begreppet ”maskininlärning” och rapporterar om att programmera en dator ”så att den lär sig att spela ett bättre parti dam än vad som kan spelas av den person som skrivit programmet.”
1959 Oliver Selfridge publicerar ”Pandemonium: A paradigm for learning” i Proceedings of the Symposium on Mechanization of Thought Processes, där han beskriver en modell för en process genom vilken datorer kan känna igen mönster som inte har specificerats i förväg.
1959 John McCarthy publicerar ”Programs with Common Sense” i Proceedings of the Symposium on Mechanization of Thought Processes, där han beskriver Advice Taker, ett program för att lösa problem genom att manipulera meningar i formella språk med det yttersta målet att göra program ”som lär sig av sina erfarenheter lika effektivt som människor gör”.”
1961 Den första industriroboten, Unimate, börjar arbeta på ett monteringsband i en General Motors-fabrik i New Jersey.”
1961 James Slagle utvecklar SAINT (Symbolic Automatic INTegrator), ett heuristiskt program som löste symboliska integrationsproblem i nybörjarkalkyl.
1964 Daniel Bobrow slutför sin doktorsavhandling vid MIT med titeln ”Natural Language Input for a Computer Problem Solving System” och utvecklar STUDENT, ett datorprogram för förståelse av naturligt språk.
1965 Herbert Simon förutspår att ”maskiner kommer inom tjugo år att kunna utföra allt arbete som en människa kan utföra.”
1965 Hubert Dreyfus publicerar ”Alchemy and AI”, där han hävdar att hjärnan inte är som en dator och att det finns gränser över vilka AI inte skulle utvecklas.
1965 I.J. Good skriver i ”Speculations Concerning the First Ultraintelligent Machine” att ”den första ultraintelligenta maskinen är den sista uppfinning som människan någonsin behöver göra, förutsatt att maskinen är foglig nog att tala om för oss hur vi ska hålla den under kontroll.”
1965 Joseph Weizenbaum utvecklar ELIZA, ett interaktivt program som för en dialog på engelska om valfritt ämne. Weizenbaum, som ville visa hur ytlig kommunikationen mellan människa och maskin är, blev förvånad över antalet människor som tillskrev datorprogrammet människoliknande känslor.
1965 Edward Feigenbaum, Bruce G. Buchanan, Joshua Lederberg och Carl Djerassi börjar arbeta på DENDRAL vid Stanford University. Det första expertsystemet automatiserade beslutsprocessen och problemlösningsbeteendet hos organiska kemister, med det allmänna syftet att studera hypotesbildning och konstruera modeller för empirisk induktion inom vetenskapen.
1966 Roboten Shakey är den första mobila roboten för allmänna ändamål som kan resonera om sina egna handlingar. I en artikel i tidskriften Life från 1970 om denna ”första elektroniska person” citeras Marvin Minsky som säger med ”säkerhet”: ”Om tre till åtta år kommer vi att ha en maskin med samma allmänna intelligens som en genomsnittlig människa.”
1968 Filmen 2001: Space Odyssey släpps, med Hal, en dator med känslor.
1968 Terry Winograd utvecklar SHRDLU, ett tidigt datorprogram för förståelse av naturligt språk.
1969 Arthur Bryson och Yu-Chi Ho beskriver backpropagation som en flerstegsmetod för optimering av dynamiska system. Den är en inlärningsalgoritm för artificiella neurala nätverk i flera lager och har i hög grad bidragit till djupinlärningens framgångar under 2000- och 2010-talen, när datorkraften har utvecklats tillräckligt för att möjliggöra träning av stora nätverk.
1969 Marvin Minsky och Seymour Papert publicerar Perceptrons: An Introduction to Computational Geometry, där de belyser begränsningarna hos enkla neurala nätverk. I en utökad utgåva som publicerades 1988 svarade de på påståenden om att deras slutsatser från 1969 avsevärt minskade finansieringen av forskningen om neurala nätverk: ”Vår version är att framstegen redan hade stannat av i praktiken på grund av bristen på adekvata grundteorier … i mitten av 1960-talet hade det gjorts ett stort antal experiment med perceptroner, men ingen hade kunnat förklara varför de kunde känna igen vissa typer av mönster och inte andra.”
1970 Den första antropomorfa roboten, WABOT-1, byggs vid Waseda University i Japan. Den bestod av ett system för kontroll av lemmar, ett synsystem och ett konversationssystem.
1972 MYCIN, ett tidigt expertsystem för att identifiera bakterier som orsakar allvarliga infektioner och rekommendera antibiotika, utvecklas vid Stanford University.
1973 James Lighthill rapporterar till British Science Research Council om läget inom forskningen om artificiell intelligens och drar slutsatsen att ”inom ingen del av fältet har upptäckter som gjorts hittills haft den stora inverkan som då utlovades”, vilket leder till att det statliga stödet till forskning om artificiell intelligens minskas drastiskt.
1976 Datorforskaren Raj Reddy publicerar ”Speech Recognition by Machine: A Review” i Proceedings of the IEEE, som sammanfattar det tidiga arbetet med Natural Language Processing (NLP).
1978 Programmet XCON (eXpert CONfigurer), ett regelbaserat expertsystem som hjälper till att beställa DEC:s VAX-datorer genom att automatiskt välja komponenter utifrån kundens krav, utvecklas vid Carnegie Mellon University.
1979 Stanford Cart korsar framgångsrikt ett stolsfyllt rum utan mänskligt ingripande på cirka fem timmar och blir därmed ett av de tidigaste exemplen på ett autonomt fordon.
1980 Wabot-2 byggs vid Waseda-universitetet i Japan, en humanoid robot som kan kommunicera med en person, läsa ett partitur och spela melodier av genomsnittlig svårighetsgrad på en elektronisk orgel.
1981 Japans ministerium för internationell handel och industri budgeterar 850 miljoner dollar för projektet för den femte generationens datorer. Projektet syftade till att utveckla datorer som kunde föra samtal, översätta språk, tolka bilder och resonera som människor.
1984 Electric Dreams släpps, en film om en kärlekstriangel mellan en man, en kvinna och en persondator.
1984 Vid AAAI:s årsmöte varnar Roger Schank och Marvin Minsky för den kommande ”AI-vintern” och förutspår att AI-bubblan snart kommer att spricka (vilket skedde tre år senare), i likhet med minskningen av AI-investeringar och forskningsmedel i mitten av 1970-talet.
1986 Den första förarlösa bilen, en Mercedes-Benz-lastbil utrustad med kameror och sensorer, byggd vid Bundeswehr-universitetet i München under ledning av Ernst Dickmanns, kör i upp till 55 km/h på tomma gator.
Oktober 1986 David Rumelhart, Geoffrey Hinton och Ronald Williams publicerar ”Learning representations by back-propagating errors”, där de beskriver ”ett nytt inlärningsförfarande, back-propagation, för nätverk av neuronliknande enheter”.”
1987 Videon Knowledge Navigator, som åtföljer Apples vd John Sculleys huvudtal vid Educom, föreställer sig en framtid där ”kunskapstillämpningar skulle nås av smarta agenter som arbetar via nätverk som är anslutna till enorma mängder digitaliserad information.”
1988 Judea Pearl publicerar Probabilistic Reasoning in Intelligent Systems. Hans motivering för Turingpriset 2011 lyder: ”Judea Pearl skapade den representativa och beräkningsmässiga grunden för behandling av information under osäkerhet. Han är känd för att ha uppfunnit Bayesianska nätverk, en matematisk formalism för att definiera komplexa sannolikhetsmodeller, samt de viktigaste algoritmerna som används för inferens i dessa modeller. Detta arbete revolutionerade inte bara området artificiell intelligens utan blev också ett viktigt verktyg för många andra grenar av teknik och naturvetenskap.”
1988 Rollo Carpenter utvecklar chattroboten Jabberwacky för att ”simulera naturlig mänsklig chatt på ett intressant, underhållande och humoristiskt sätt”. Det är ett tidigt försök att skapa artificiell intelligens genom mänsklig interaktion.
1988 Medlemmar av IBM:s T.J. Watson Research Center publicerar ”A statistical approach to language translation” (en statistisk metod för språköversättning), som är ett tecken på övergången från regelbaserade till sannolikhetsbaserade metoder för maskinöversättning, och som återspeglar en bredare övergång till ”maskininlärning” som bygger på statistisk analys av kända exempel, inte på förståelse och ”insikt” i uppgiften i fråga (IBM:s projekt Candide, som framgångsrikt översatte mellan engelska och franska, byggde på 2.2 miljoner par av meningar, mestadels från de tvåspråkiga förhandlingarna i det kanadensiska parlamentet).
1988 Marvin Minsky och Seymour Papert publicerar en utökad utgåva av sin bok Perceptrons från 1969. I ”Prologue: A View from 1988” skriver de: ”En anledning till att framstegen har varit så långsamma inom detta område är att forskare som inte är bekanta med dess historia har fortsatt att göra många av samma misstag som andra har gjort före dem.”
1989 Yann LeCun och andra forskare vid AT&T Bell Labs tillämpar framgångsrikt en backpropagationsalgoritm på ett flerskikts neuralt nätverk som känner igen handskrivna postnummer. Med tanke på hårdvarubegränsningarna vid den tidpunkten tog det ungefär tre dagar (vilket fortfarande är en betydande förbättring jämfört med tidigare försök) att träna nätverket.
1990 Rodney Brooks publicerar ”Elephants Don’t Play Chess”, där han föreslår ett nytt tillvägagångssätt för artificiell intelligens – att bygga intelligenta system, särskilt robotar, från grunden och på grundval av kontinuerlig fysisk interaktion med omgivningen: ”Världen är sin egen bästa modell… Tricket är att känna av den på lämpligt sätt och tillräckligt ofta.”
1993 Vernor Vinge publicerar ”The Coming Technological Singularity”, där han förutspår att ”inom trettio år kommer vi att ha de tekniska förutsättningarna för att skapa övermänsklig intelligens. Kort därefter kommer den mänskliga eran att upphöra.”
1995 Richard Wallace utvecklar chattroboten A.L.I.C.E (Artificial Linguistic Internet Computer Entity), inspirerad av Joseph Weizenbaums ELIZA-program, men med tillägg av insamling av data från naturliga språksamplar i en aldrig tidigare skådad skala, vilket möjliggjordes genom webbens tillkomst.
1997 Sepp Hochreiter och Jürgen Schmidhuber föreslår Long Short-Term Memory (LSTM), en typ av återkommande neurala nätverk som idag används vid handskriftsigenkänning och taligenkänning.
1997 Deep Blue blir det första datorschackprogram som slår en regerande världsmästare i schack.
1998 Dave Hampton och Caleb Chung skapar Furby, den första husrobotten.
1998 Yann LeCun, Yoshua Bengio och andra publicerar artiklar om tillämpning av neurala nätverk på handskriftsigenkänning och om optimering av backpropagation.
2000 Cynthia Breazeal från MIT utvecklar Kismet, en robot som kan känna igen och simulera känslor.
2000 Hondas ASIMO-robot, en artificiellt intelligent humanoid robot, kan gå lika snabbt som en människa och leverera brickor till kunder i en restaurangmiljö.
2001 A.I. Artificiell intelligens släpps, en Steven Spielberg-film om David, en barnliknande android som på ett unikt sätt programmerats med förmågan att älska.
2004 Den första DARPA Grand Challenge, en pristävling för autonoma fordon, hålls i Mojaveöknen. Inget av de autonoma fordonen slutförde den 150 mil långa sträckan.
2006 Oren Etzioni, Michele Banko och Michael Cafarella myntar begreppet ”maskinläsning” och definierar det som en i sig oövervakad ”autonom förståelse av text”.”
2006 Geoffrey Hinton publicerar ”Learning Multiple Layers of Representation”, där han sammanfattar de idéer som har lett till ”neurala nätverk i flera lager som innehåller top-down-anslutningar och tränar dem att generera sensoriska data snarare än att klassificera dem”, dvs, de nya metoderna för djupinlärning.
2007 Fei Fei Li och kollegor vid Princeton University börjar sammanställa ImageNet, en stor databas med kommenterade bilder som är utformad för att underlätta forskningen om programvara för visuell objektigenkänning.
2009 Rajat Raina, Anand Madhavan och Andrew Ng publicerar ”Large-scale Deep Unsupervised Learning using Graphics Processors”, där de hävdar att ”moderna grafikprocessorer vida överträffar beräkningskapaciteten hos flerkärniga CPU:er och har potential att revolutionera användbarheten av djupa, oövervakade inlärningsmetoder.”
2009 Google börjar i hemlighet utveckla en förarlös bil. År 2014 blev den den första att klara ett självkörningstest i Nevada, en amerikansk delstat.
2009 Datorforskare vid Intelligent Information Laboratory vid Northwestern University utvecklar Stats Monkey, ett program som skriver sportnyhetsartiklar utan mänskligt ingripande.
2010 Lansering av ImageNet Large Scale Visual Recognition Challenge (ILSVCR), en årlig tävling i AI-objektigenkänning.
2011 Ett konvolutionellt neuralt nätverk vinner den tyska tävlingen om igenkänning av trafikskyltar med en noggrannhet på 99,46 % (jämfört med 99,22 % för människor).
2011 Watson, en dator som svarar på frågor i naturligt språk, tävlar i Jeopardy! och besegrar två tidigare mästare.
2011 Forskare vid IDSIA i Schweiz rapporterar att felprocenten vid handskriftsigenkänning med hjälp av konvolutionella neurala nätverk ligger på 0,27 %, vilket är en avsevärd förbättring jämfört med den 0 % som uppnåtts.35 %-0,40 % felprocent under tidigare år.
juni 2012 Jeff Dean och Andrew Ng rapporterar om ett experiment där de visade ett mycket stort neuralt nätverk 10 miljoner omärkta bilder som slumpmässigt togs från YouTube-videor, och ”till vår förtjusning lärde sig en av våra artificiella neuroner att reagera starkt på bilder av… katter”.”
Oktober 2012 Ett konvolutionellt neuralt nätverk som utformats av forskare vid University of Toronto uppnår en felprocent på endast 16 % i ImageNet Large Scale Visual Recognition Challenge, vilket är en avsevärd förbättring jämfört med den felprocent på 25 % som uppnåddes av det bästa bidraget året innan.
Mars 2016 Google DeepMinds AlphaGo besegrar Go-mästaren Lee Sedol.
Nätet (särskilt Wikipedia) är en utmärkt källa för den artificiella intelligensens historia. Andra viktiga källor är bland annat Nils Nilsson, The Quest for Artificial Intelligence: A History of Ideas and Achievements; Stuart Russell och Peter Norvig, Artificial Intelligence: A Modern Approach; Pedro Domingos, The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World, och Artificial Intelligence and Life in 2030. Kommentera gärna om oavsiktliga utelämnanden och felaktigheter.
Se även A Very Short History of Data Science, A Very Short History of Big Data och A Very Short History of Information Technology (IT).
Följ mig på Twitter eller LinkedIn. Kolla in min webbplats.