1308 Catalan poet and theologian Ramon Llull publises Ars generalis ultima (The Ultimate General Art), which further perfecting his method of using paper-based mechanical means to create new knowledge from combination of concepts.カタルーニャの詩人、神学者ラモン・リュルは、紙を使った機械的手段で、概念の組み合わせから新しい知識を生み出す方法を完成。
1666 数学者・哲学者のゴットフリート・ライプニッツが「組合せ芸術について」を発表。ラモン・リュルに続いて人間の思考のアルファベットを提案し、すべての考えは比較的少数の単純な概念の組み合わせに過ぎないと論じた。
1726 ジョナサン・スウィフトが『ガリバー旅行記』を出版。この中で、ラピュタ島にある機械「エンジン」についての記述がある(リュルの思想のパロディでもある)。 “実用的かつ機械的な操作によって、思索的な知識を向上させるためのプロジェクト”。 この「装置」を使うことで、「最も無知な者でも、合理的な料金で、少しの肉体労働で、天才や学問の助けを借りずに、哲学、詩、政治、法律、数学、神学の本を書くことができる」
1763 Thomas Bayesが事象の確率についての推論のための枠組みを開発した。 ジョージ・ブールは、論理的推論は方程式を解くのと同じ方法で体系的に行うことができると主張する。
1914 スペインのエンジニア、レオナルド・トーレス・イ・ケベドが、人間の介入なしにキングとルークの対キングの終盤戦が可能な初のチェスプレイマシンを実演する。 6021>
1925 フーディナ・ラジオコントロールがラジコンカーを発売し、ニューヨークの街を走らせる
1927 SF映画『メトロポリス』が公開される。 スターウォーズ」のC-3POのアールデコ調のデザインもこの作品から生まれました。
1943 ウォーレン・S・マカロックとウォルター・ピッツが「A Logical Calculus of the Ideas Immanent in Nervous Activity」をBulletin of Mathematical Biophysics誌に発表する。 この影響力のある論文は、理想化され単純化された人工的な「ニューロン」のネットワークと、それらがどのように単純な論理的機能を実行するかについて論じており、コンピュータベースの「ニューラルネットワーク」(後に「深層学習」)と「脳の模倣」という人気のある表現のインスピレーションとなるものである。 これらの機械は、脳が肉と神経ではなくハードウェアとワイヤーでできているとしたら、それに近いものである…機械は情報を扱い、計算し、結論を出し、選択することができ、情報を使って合理的な操作を行うことができる。 したがって、機械は考えることができる」
1949 ドナルド・ヘブ、「行動の組織化」を発表。 1950年 クロード・シャノン「Programming a Computer for Playing Chess」が、チェスをするコンピュータプログラムの開発に関する最初の論文として発表される
1950 アラン・チューリング「Computing Machinery and Intelligence」を発表し、後に「チューリングテスト」として知られることになる「模倣ゲーム」を提唱する。「
1951 Marvin MinskyとDean Edmundsが、3000本の真空管を使って40個のニューロンのネットワークをシミュレートし、最初の人工ニューラルネットワークであるSNARC (Stochastic Neural Analog Reinforcement Calculator)を構築
1952 Arthur Samuelが最初のコンピュータチェッカー演奏プログラムと最初のコンピュータプログラムである自己学習プログラムを開発。
1955年8月31日 ジョン・マッカーシー(ダートマス大学)、マービン・ミンスキー(ハーバード大学)、ナサニエル・ロチェスター(IBM)、クロード・シャノン(ベル電話研究所)が提出した「2ヶ月、10人の人工知能の研究」という提案において「人工知能」という言葉が作られる。 このワークショップは1年後の1956年7月と8月に開催され、一般に新しい分野の正式な誕生日と見なされている。
1955年12月 ハーバート・サイモンとアレン・ニューウェルが最初の人工知能プログラム「ロジックセオリスト」を開発。 ニューヨークタイムズ紙はパーセプトロンを「歩く、話す、見る、書く、自己複製する、自分の存在を意識することができると期待される電子コンピュータの胚」と報じた。 6021>
1958 ジョン・マッカーシーがプログラミング言語Lispを開発し、人工知能研究で使用される最も一般的なプログラミング言語となる。 この論文では、「人間のように経験から効果的に学習する」プログラムを作ることを究極の目的として、形式言語の文を操作することによって問題を解決するプログラム、Advice Takerについて述べている。
1961 ジェームス・スレイグルが、ニュージャージーのゼネラルモーターズ工場の組み立てラインで、最初の産業用ロボット「ユニメート」が稼働を開始。
1964 Daniel Bobrowが「Natural Language Input for a Computer Problem Solving System」と題したMIT博士論文を完成させ、自然言語理解コンピュータプログラムであるSTUDENTを開発する。
1965 ハーバート・サイモンが「20年以内に機械は人間ができるどんな仕事でもできるようになるだろう」と予測。
1965 ヒューバート・ドレフュスが「アルケミーとAI」を出版し、心はコンピュータとは違う、AIが進歩しない限界があると論じる。
1965 I.J.グッド、「最初の超知的機械に関する推測」の中で、「最初の超知的機械は、機械が十分に従順で、それを制御する方法を教えてくれるならば、人間が作る必要のある最後の発明だ」と書く
1965 Joseph Weizenbaum、英語で任意のトピックについて対話を行うインタラクティブプログラム「ELIZA」を開発する。 人間と機械とのコミュニケーションが表面的なものであることを示したかったワイゼンバウムは、このコンピュータプログラムに人間のような感情を抱く人が多いことに驚いたという
1965 Edward Feigenbaum, Bruce G. Buchanan, Joshua Lederberg, and Carl Djerassi, Stanford UniversityでDENDRALに着手する。 最初のエキスパートシステムは、有機化学者の意思決定プロセスと問題解決行動を自動化し、仮説形成の研究と科学における経験的帰納法のモデルを構築することを一般的な目的としていた。 この「最初の電子人間」についての1970年のライフ誌の記事の中で、マービン・ミンスキーは「確信」をもってこう言っているのが引用されている。 1968年 映画「2001年宇宙の旅」が公開され、知覚を持つコンピュータ、ハルが登場する。
1968 Terry Winograd が初期の自然言語理解コンピュータプログラム、SHRDLUを開発。 多層人工ニューラルネットワークの学習アルゴリズムで、計算能力が十分に向上して大規模ネットワークの学習に対応できるようになった2000年代から2010年代にかけてのディープラーニングの成功に大きく貢献した
1969 Marvin Minsky and Seymour Papert published Perceptrons: An Introduction to Computational Geometry)を出版し、単純なニューラルネットワークの限界を強調した。 1988年に出版された増補版で、彼らは1969年の結論がニューラルネットワーク研究の資金を著しく減少させたという主張に反論している。 「1960年代半ばまでにパーセプトロンの実験は数多く行われていたが、なぜある種のパターンを認識でき、他のパターンを認識できないのかを誰も説明できなかった」
1970 早稲田大学で初の人間型ロボットWABOT-1が製作される。 1972年 スタンフォード大学で、重度の感染症を引き起こす細菌を特定し、抗生物質を推奨する初期のエキスパートシステム、MYCINが開発される。
1973 James Lighthillが英国科学研究評議会に人工知能研究の現状を報告し、「この分野のどの部分においても、これまでの発見が当時約束されていたような大きな影響をもたらしていない」と結論付け、AI研究に対する政府の支援を大幅に削減することになる。 1978年 カーネギーメロン大学で、DECのVAXコンピュータの発注を支援するルールベースのエキスパートシステム、XCON (eXpert CONfigurer) プログラムが開発され、顧客の要求に基づいて自動的にコンポーネントを選択する。
1979 スタンフォード大学のカートが、椅子のある部屋を人間の手を借りずに約5時間で横断することに成功し、自律走行車の初期の一例となる。
1980 早稲田大学で、人とコミュニケーションをとり、楽譜を見て、電子オルガンで平均程度の難度の曲を演奏できる音楽家型の人型ロボットWabot-2を制作する。 会話、言語翻訳、絵の解釈、人間のような推論ができるコンピュータを開発することを目的としたプロジェクト。
1984 AAAIの年次総会で、ロジャー・シャンクとマービン・ミンスキーが「AIの冬」の到来を警告し、1970年代半ばのAI投資と研究資金の減少に似たAIバブルの崩壊が近いと予測(これは3年後に実現した)
1986 Ernst Dickmanns指揮のもとにミュンヘンのBundeswehr Universityで作られたカメラとセンサーを備えたベンツのバン、初の無人走行車で、空の道路を最高時速55マイル(約25km)で走る。
1986年10月 David Rumelhart, Geoffrey Hinton, Ronald Williamsが「Learning representations by back-propagating errors」を発表し、「ニューロン様ユニットのネットワークに対する新しい学習手順、バックプロパゲーション」を説明した。
1987 EducomでのアップルCEOジョン・スカリーの基調講演に付随するビデオ「Knowledge Navigator」は、「知識アプリケーションは、大量のデジタル情報に接続されたネットワーク上で働くスマートエージェントによってアクセスされるだろう」という未来を構想している。 彼の2011年チューリング賞の引用文はこうである。 「Judea Pearlは、不確実性の下で情報を処理するための表現と計算の基礎を築いた。 彼は、複雑な確率モデルを定義するための数学的形式であるベイジアンネットワークと、これらのモデルにおける推論に用いられる主要なアルゴリズムを発明したことで知られている。 この研究は人工知能の分野に革命をもたらしただけでなく、工学や自然科学の他の多くの分野にとっても重要なツールとなった」
1988 Rollo Carpenterは、「興味深く、楽しく、ユーモラスに、人間の自然のチャットをシミュレートする」チャットボットJabberwackyを開発した。 IBM T.J. Watson Research Centerのメンバーが「A statistical approach to language translation」を発表。機械翻訳のルールベースから確率的手法への移行を予告し、タスクの理解や「理解」ではなく、既知の例の統計的分析に基づく「機械学習」への幅広い移行を反映している(英語とフランス語の翻訳に成功したIBMのプロジェクトCandideは2.
1988 Marvin Minsky と Seymour Papert が 1969 年に出版した「Perceptrons」の増補版を出版。 プロローグ」にて。 この分野の進歩がこれほど遅い理由の1つは、この分野の歴史を知らない研究者が、他の研究者が先に犯したのと同じ間違いの多くを犯し続けているからである」
1989 AT&Tベル研究所のYann LeCunと他の研究者が、バックプロパゲーションアルゴリズムを多層ニューラルネットワークに適用し、手書きの郵便番号を認識することに成功する。 当時のハードウェアの制限を考えると、ネットワークの訓練には3日ほどかかりました(それでも以前の努力に比べれば大きな進歩です)
1990 Rodney Brooksが「Elephants Don’t Play Chess」を出版し、AIへの新しいアプローチを提案しました。 「
1993 年 バーナー・ヴィンジは「来るべき技術的特異点」を発表し、「30 年以内に、我々は超人的な知性を創造する技術的手段を手にするだろう」と予測しました。 1995年 リチャード・ウォレスが、ジョセフ・ワイゼンバウムのELIZAプログラムに触発されながら、ウェブの出現によって可能になった前例のない規模の自然言語サンプルデータ収集を加えたチャットボットA.L.I.C.E (Artificial Linguistic Internet Computer Entity)を開発する。
1997 Sepp Hochreiter と Jürgen Schmidhuber が、手書き認識や音声認識で今日使用されている再帰型ニューラルネットワークの一種である Long Short-Term Memory (LSTM) を提案。
1997 Deep Blue がコンピュータチェスプレイプログラムとして初めてチェスの世界チャンピオンとなる。
1998 Yann LeCun、Yoshua Bengioらが、手書き文字認識へのニューラルネットワークの応用とバックプロパゲーションの最適化に関する論文を発表。
2000 MITのCynthia Breazealが、感情を認識しシミュレーションできるロボットKismetを開発。
2001 「A.I.Artificial Intelligence」が公開される。
2006 Oren Etzioni、Michele Banko、Michael Cafarellaが「マシンリーディング」という言葉を生み出し、教師なしでの「テキストの自律的理解」と定義する。”
2006 Geoffrey Hinton が「Learning Multiple Layers of Representation」を発表し、「トップダウン接続を含む多層ニューラルネットワークと、それを分類するのではなく、感覚データを生成するためのトレーニング」、すなわち、「多層ニューラルネットワーク」につながったアイデアをまとめている。 2007年 プリンストン大学のFei Fei Liらが、視覚的物体認識ソフトウェアの研究を支援するために設計された、注釈付き画像の大規模データベース「ImageNet」の組み立てを開始する。
2009 Rajat Raina、Anand Madhavan、Andrew Ng が「Large-scale Deep Unsupervised Learning using Graphics Processors」を発表し、「最新のグラフィック プロセッサはマルチコア CPU の計算能力をはるかに超えており、深い教師なし学習法の適用性を変革する可能性を秘めている」と主張する。
2009 Google、ドライバーレス車の開発を秘密裏に始める。 ノースウェスタン大学知能情報研究所のコンピュータ科学者が、人間の介入なしにスポーツニュースの記事を作成するプログラム「Stats Monkey」を開発
2010 AIオブジェクト認識コンテスト「ImageNet Large Scale Visual Recognition Challenge(ILSVCR)」を開始。
2011 ドイツの交通標識認識コンテストで、畳み込みニューラルネットワークが99.46%の精度(対人間99.22%)で優勝
2011 自然言語質問応答コンピュータのWatsonが、ジョパディ!に出場し、元チャンピオン2人を破る
2011 スイスのIDSIAで研究者たちは、畳み込みニューラルネットワークによる手書き認識の誤差が0.27%と、これまでの誤差0を大幅に上回ったことを報告している。2012 年 6 月 Jeff Dean と Andrew Ng は、非常に大規模なニューラルネットワークに、YouTube の動画からランダムに取り出したラベルのない 1,000 万枚の画像を見せた実験について報告しています。「
2012年10月 トロント大学の研究者が設計した畳み込みニューラルネットワークが、ImageNet Large Scale Visual Recognition Challengeでエラー率わずか16%を達成し、前年の最優秀作品が達成したエラー率25%を大幅に上回った
2016年3月 Google DeepMind の AlphaGo が、囲碁チャンピオンのイ・セドル氏に勝つ
Web(特にWikipedia)は人工知能史にとって大きな資料となっています。 その他の主な資料としては、Nils Nilsson, The Quest for Artificial Intelligence: A History of Ideas and Achievements; Stuart Russell and Peter Norvig, Artificial Intelligence: 現代的アプローチ」、ペドロ・ドミンゴス「マスター・アルゴリズム」などがある。 究極の学習機械の探求はいかにして我々の世界を作り変えるのか」、「2030年の人工知能と生命」。
A Very Short History of Data Science、A Very Short History of Big Data、A Very Short History of Information Technology (IT)もご参照ください。
TwitterまたはLinkedInで私をフォローする。 私のウェブサイトをチェックする。