AIの可能性はニューラルネットに留まらない

LLMの出現と共に広まったAIに対する誤解を歴史の文脈で紐解いていく

私達が人工知能の課題について語る時、良く失敗例の話題になる事が多く感じます。例えば画像分類機でバナナを認識させた所、表面に貼られていたシールによりトースターと識別される現象がありました。他にも自動運転車が感覚データの認識処理を誤り、白いトラックを明るい空と誤認識して不幸な事故に繋がった事例もあります。このようなケースは少なくはなく、今のAIモデルの改善点を浮き彫りにさせている事は否めません。一見無害なエラーが潜在的に命を脅かすシナリオに変わることで、倫理的な懸念が高まっています。

これらの現状を理解する為に以下のような課題が挙げられます。

  1. 原因はモデルがトレーニングデータのパターンに依存し過ぎているからだろうか。課題はデータの構造やパターン認識の制限にあると考えられます。
  2. あるいは、課題はAIが物体や状況の本質的な認識力や基本的な推論力の不足、もしくは「一般常識」が欠如しているのだろうか。

興味深いことに、これらの課題は人間の知能に関する認知理論と一致しています。あの心理学者のダニエル・カーネマンのSystem 1とSystem 2の理論では、これらの理論をより分析できる物になっています。カーネマンによれば、私たちの脳は2つのシステムを活用いるという。System 1は迅速で本能的な反応を提供し、System 2はより深い、熟考された思考プロセスの促進になります。

カーネマン自身も彼の理論と人工知能の間の潜在的な共通点を指摘しました。上記の最初の課題(パターン認識中心の視点)はSystem 1の考え方と共通しています。この視点は、トレーニング中で得たパターンに基づいて決定を下すニューラルネットワークの動作を体現します。

対照的に2つ目の課題はSystem 2の考え方と共通し、問題解決においてより熟考され、推論に基づいたアプローチを表しています。これは「シンボリックAI」と呼ばれるもので、これが一部の人々には馴染みがなく、または理解し難いと感じるかもしれません。シンボリックAIは、機械に明確な知識と推論能力を埋め込むことを目指しており、ただパターンを認識するだけでなく、「なぜ」までも理解します。これは人間の複雑な理解力を連想させます。(注:実際の脳はこの二つの概念が示唆するよりもはるかに複雑であり、その処理能力はSystem 1と2の範囲を超える多くの要素に基づきます。)

昨今、「ニューラルネットワーク」という表現はAIとほぼ同義語として考えられており、我々が見るほとんどのAI製品やサービスはこの技術に基づいています。つまり、人がAIについて語っている時には実際に彼らが言及しているのはこのニューラルネットワークにもなるのです。ですが、ニューラルネットワーク、特にディープラーニングに関しては比較的最近台頭してきた事も見過されている場合があります。AIの歴史においてシンボリックAIがAI研究と応用において最前線にあった時期があった事を、人は、業界の人も含めて風化されているようです。


歴史

このような背景からAIに関して人は規定と否定を繰り返し、その周期をAIの「夏」と「冬」と呼びました。アラン・チューリングが機械が人間の知性を模倣できる可能性を提案したとき、彼はシンボリックとコネクショニストの2つの学派の基礎を作りました。(この記事の中で使用される「コネクショニスト」とはニューラルネットワークの古い用語を指していることを想定しています。)

1950年代から1960年代初頭のAIの初期にシンボリックAIと最初のコネクショニズムの形態がほぼ同時に出現しました。マービン・ミンスキーやジョン・マッカーシーのようなシンボリックAIの支持者は、人間の知性は正確なルールと論理を通じて模倣できると考えていました。これは、人間の推論を模倣しようとする最初の知識ベースのシステムの創造に繋がりました。しかし、人間の知識の複雑さとニュアンスを表現することは、後の数十年にわたってシンボリックAIを信じるシンボリストたちが直面した明確な解決策に至らないテーマとなりました。

一方で、同時期にはコネクショニズムへの関心も高まってきます。1950年代後半にフランク・ローゼンブラットによって紹介された初期のニューラルネットワークモデルであるパーセプトロンは、ハードコーディングされた定義よりデータから学習する事に重きを置いていました。それからパーセプトロンは目まぐるしい発展を遂げましたが、社会においての応用性を図ることが出来ず、人々はニューラルネット―ワークに対する関心が薄れて行きます。人間の知性を解明するという初期の勢いは失われ、最初の「AIの冬」の到来となりました。

時は流れ、1970代にはAIの分野は様々な見直しを行うフェーズに入ります。初期の段階でシンボリック及びコネクショニストのアプローチで課題に直面した事により、新たな研究の方向性や方法を追及するようになります。AI分野の研究費用はより選択的になり、更に実用性に向ける事が可能になってきます。結果として画期的な実績は見られなかったものの、多くの研究者が1980年代にもたらす革新と復活の地盤を築きました。

1980年代に入りますと、シンボリックAIはエキスパート・システムを通じて短期間の復活を遂げ、広範なルールベースの構造を用いて特定の領域における人間の専門知識を模倣しようとしました。この時期を、適応性や汎化性が欠如していたことから「AIの第二の冬」と見なす意見もございますが、この時期に焦点を当てられたすべての分野が、もしより高い目標が達成できなかったとしても、何らかの形で実用的な進展をもたらしたことは注目すべき点であります。そして、セバスチャン・スランが開発した自律走行コードにも役立ったコンパイラーやデータベースの開発など、この時期になされた重要な技術的進歩を認識することは非常に重要です。

その間、ジェフリー・ヒントン、ヤン・ルカン、ヨシュア・ベンジオのような研究者たちは世間の評価を得られていない中、研究アプローチはコネクショニズムに基づいていた。1980年代と1990年代は、ニューラルネットワークの研究が学術的な観点の表現方法より、しばしば軽視され、資金不足など困難な時期を直面した。ヒントンは、その時期をコネクショニズムの「暗黒時代」として回想しており、この分野で取り組みを続ける研究者はほんの一握りしかいませんでした。メタのVPであり、主任AI研究員であるルカンは、現在の認知や得い協力とは裏腹にニューラルネットワークに関する彼の研究論文が主要な会議で受け入れられるのに苦労した時期でもありました。

多くの点で、現在の彼らの立場は今までの一環した姿勢によるものです。2000年代後半に計算能力が急速に向上し、更にデータセットが増加する事で状況は風景は変一辺しました。2010年代のディープラーニングでは、これらのコネクショニズム先駆者たちによる基礎となる業績に支えられ、画像認識や音声認識などのような大きな成果に繋がりました。かつては光が当たらないコネクショニズムでしたが、今は多数の開発者と研究者にとっての重要なアプローチとなっています。

現状

しかし、21世紀が進むにつれて、ディープラーニングだけに依存する事の限界が明らかになってきました。ニューラルネットワークはパターン認識には優れているものの、明確な推論能力を欠いているという表面化してきました。結果として、データ依存性、「ブラックボックス」問題(解釈性の欠如)、処理を行う環境コスト、過学習(ハルシネーションの原因)、常識的な推論などの課題が浮上してきました。肯定派は精度の高いアーキテクチャとトレーニング方法の改善でこれらの課題を克服できると主張しています。

これらの問題の重要性を考慮すると、まず私たちが洗い出せる全ての解決策を探る事が賢明である。これにより、シンボリックとコネクショニズム両方を応用するというアイディアが再度浮上します。シンボリックとコネクショニストパラダイムの融合です。この理論によって、「ニューロシンボリックAI」というハイブリッドな新たな領域の道を開き、研究者たちのニューラルとシンボリックの両方の世界の良いところを取り入れようと試みているさまざまな戦略に繋がります。このアプローチの一つとして、MITの確率的コンピューティングプロジェクトがあります。ここでは以前のブログ投稿で概説したように、ニューロシンボリックフレームワーク内の不確実性を制御するために確率的プログラムを使用しています。

興味深いことに、確率的(またはベイズ)プログラミングは、ニューラルネットワークが今ほど認知されていなかった90年代にも存在感がありました。有名どころだと、AI研究者であるジュデア・パールやスチュアート・ラッセルなどが、この分野を研究していました。また、Microsoftが開発したClippyはプロジェクト序盤の5〜10年間はベイジアンネットワークに基づいていました。これは、知能を理解する道(人工的なものであれ自然なものであれ)がまだ終わっていないことを示唆しています。

ある意味ニューラルネットワークは「常識」として理解されるようになってきました。ですが、AIの未来や可能性について追及し続ける事も重要です。歴史的に見ても現段階はAIの序盤であり、AI分野では常にあらゆる理論や意見、方向性で変化が起き続けています。AIの課題が私たちの日常や一般社会に近づくに連れて技術者たちは研究を続けるでしょう。それによりAIへのアプローチも進化し続けます。したがって近い将来にAIは直観で尚且つ理論性を持ち合わせ、莫大なデータセットを元に導き出された判断も説明できるようになっているかもしれません。




Joseph Park is the Content Lead at DAL (joseph@dalab.xyz)

Translation: Lulu Ito & Junpei Fukuda
Illustration: Satoshi Hashimoto

More from DAL Blog

テクノロジーに対する楽観主義と悲観主義の中間を確立するためには、もっと多くのことをなされなければならない。
Henkakuの変革理論の探求、パート1: デザインで単純化に抗うとは
コミュニティとしての環境づくり
第26回NCCの振り返り:分散型AIシステムと日本の哲学的視点が与える影響

AIの可能性はニューラルネットに留まらない

×