より有用で信頼性のあるAIに向けて:未来への展望を見据えて

第26回NCCの振り返り:分散型AIシステムと日本の哲学的視点が与える影響

この記事では、2023年11月に開催され、デジタルガレージが主催、DALがパートナーを務めた「The New Context Conference(NCC)」について総括します。特に不確実性プログラミングに焦点を当て、カンファレンスの重要な部分を振り返っていきたいと思います。詳しいアジェンダについては、ウェブサイトをご覧ください

2023年は、AIの転換期として人々に記憶されるでしょう。生成AIツールやアプリケーションの人気が急上昇し、クローズドソースAIとオープンソースAIの両方で前例のない成長期を迎えました。それと同時に、この歴史的な技術革新の時代における、潜在的な落とし穴についての議論も増えています。成長の速さについて懸念を示す声もあり、社会がこの急激な変化に対応する準備が整っていないといった意見もあります。しかし、良し悪しに関わらず、2023年が人類の発展の軌跡における転換点として歴史に刻まれることは否定できません。この瞬間のエネルギーを捉え、デジタルガレージの第26回 The New Context Conference (NCC)は、”Building Useful and Trustworthy AI”をテーマに、11月17日にサンフランシスコで開催されました。
私たちはかねてより、AIの未来に対してオープンなマインドでいることの重要性について議論してきました。歴史的な進展について調べ、私たちはまだAIの発展の初期段階にあり、異なる技術の間を振り子のように行き来するプロセスであると主張しました。また、AIシステムが直感的なだけでなく論理的で、膨大なデータセットを吸収し、その意思決定プロセスを説明することに長けている未来を想像してきました。
大規模言語モデル(LLM)の成功のさらに上には、何ができるでしょうか?また、これらの進歩は将来どのような形で現れるのでしょうか?
第26回NCCは、このシリーズを通じて育んできた議論の続編でもありました。カンファレンスでは、伊藤穰一氏(株式会社デジタルガレージ 取締役 兼 専務執行役員Chief Architect/千葉工業大学学長)やVikash Mansinghka氏(Principal Research Scientist, Dept. of Brain and Cognitive Sciences, MIT)などのオピニオンリーダーをはじめ、多くの著名な登壇者により、興味深い問題が提起されました。

洗練されたAIの必要性


オープニングキーノートでは、伊藤穰一氏(以下、伊藤氏)がAIの最近の進歩とAI規制の世界的なトレンドについて簡単に紹介しました。専門家の予測を反映して、伊藤氏は驚きの予測を提示しました:次の10年間でAIのパワーは1,000~10,000倍に増加、投資額やハードウェア/アルゴリズムの強さは10倍に増加するという予想です。
しかし伊藤氏は、強力になったからといって、必ずしも賢くなるとは限らないと強調しました。
シリコンバレーでの懸念は主に安全性の問題に集中していますが、伊藤氏は、安全性だけに留まらない以下の分野での懸念を示しました。


繰り返される自己改善:
汎用人工知能(AGI)は自己修正に優れ、監視されていることを認識し、重大な介入を防ぐために私たちを誤誘導するなど、私たちを欺くことができるようになるリスクがあります。また、AGIが人間の監視を離れて自律的に目標を設定する潜在能力は、知能の爆発的な成長をもたらし、我々の制御を超えたスーパー知能にまで到達する可能性があります。

ガードレールのないオープンソース:
オープンソースのAIでは、ガードレールを取り除き制約なく行動することは技術的に可能であり、しばしばクローズドソースのソリューションの方が安全だという議論につながります。 しかし、AIが自己改善と自律的な目標設定ができるようになるまで、あと2~3年しかないと推定されており、 オープンソースの開発が通常18~24カ月遅れていることを考えると、オープンソースのAIは3~4年で同様の能力に到達できることになります。 このような進展に効果的に対処するための猶予は非常に限られていると言わざるを得ません。

協調なき競争:
進化には常に協調と競争がありましたが、現在のAI技術は、単なる競争主義によって生み出されており、バランスを非常に欠いています。このアンバランスな状態は、AI分野で有害な環境を助長しかねません。

民間と公共セクターの分断:
2023年には、官民間の規制や集団行動に関する対話を促進することを目的とした数多くの取り組みが見られました。 注目すべき例としては、UKサミット、フロンティア・フォーラム、AIの安全性に関する国際パネルなどが挙げられます。 しかし、民間セクターが政府機関と関わることに消極的であるため、しばしば連携に課題が生じます。


科学技術革新担当長官が防衛省を含む各省庁とのつながりを維持している英国とは対照的に、日本はそのような省庁間の連携が不足しているため、独自の課題に直面しています。 つまり、日本には、AIの安全性やAIとサイバーセキュリティについて議論する責任の主体が存在しないということです。 したがって、産官学が共同でこうした課題に取り組むことができるよう、最も効果的な協力体制を構築するための話し合いを続けることが極めて重要です。


分散型アーキテクチャの必要性

オープニングキーノートに続いて、カンファレンスの各パネルディスカッションは、「AI時代における、より分散されたアーキテクチャの必要性」という外せないテーマに収束しました。パネリストたちは皆、多様な形態の(人工)知能が共存し、互いに関わり合う世界を想像する必要性を強調しました。この視点は、ニューラルネットワークによって駆動される大規模言語モデル(LLM)の現在の課題に対する問題提起でもあり、より多元的で相互に関連し合うAIエコシステムの提案でもありました。

不確実性プログラミングとニューロシンボリックAI
このビジョンを実現する上で重要な要素は、Vikash Mansinghka氏によって提示された不確実性プログラミングです。Mansinghka氏は、このテーマに関する複数の記事をDALと共に作成してくれました。


マサチューセッツ工科大学の不確実性コンピューティングラボを率いるMansinghka博士は、強靭な世界のモデリングがほぼ進化的に必須であると主張しています。不確実性プログラミングの核となるコンセプトは、ニューロシンボリックコンピュテーションと不確実性コンピュテーションを統合し、それらを一体的にスケーリングする能力です。このアプローチは、人間の思考や学習プロセスを反映し、データの不確実性や問題の解釈に対して合理的に対応をする上で非常に重要です。
パネリストたちは、このニューロシンボリックの融合はすでに起こっているように見える、という点で意見が一致しました。LLMを、持続的なメモリに特に長けていないCPUに似たものとして想定すると、シンボリックコードはこのメモリとソフトウェアとして効果的に機能する可能性があります。(不確実性プログラミングに関する詳細は、過去の記事をご参照ください。)
では、不確実的な土台は、実際にはどこで最初に現れるのでしょうか?はじめに、LLMの上に不確実的推論を重ねることで、ブラックボックスプロセスを有害なコンテンツから、より有益な結果に導くことができます。たとえば、LLMが生成した音声の中の有害な内容をフィルタリングするのに役立つかもしれません。
不確実性プログラミングは、現在LLMが実行しているプロセスにさらに世界知識を学習することも可能です。Mansinghka博士によれば、これは人類の進化過程と類似しており、人間はまず世界を理解し、その後言語を発展させましたが、現在はそのプロセスが逆になっていると言及しました。不確実性プログラミングをLLMに適用する最初の応用は、自然言語の文章の意味の不確実性を把握することが目標となるでしょう。
第二に、セマンティック・ウェブが復活する可能性があります。セマンティック・ウェブは、知識共有のための記号構造を作ろうとする試みであり、当初は構造化されていない知識を記号化することの難しさゆえに頓挫しました。シンボリック/不確実性推論を備えたLLMは、この領域で非常に高い効果を発揮する可能性があります。したがって、特定の領域のテキストのシンボリックな解釈を求める企業は、この開発から大きな利益を得ることができます。

実践的な応用分野
さらにNCCのディスカッションでは、新たな研究分野の紹介もありました。参加者が実践的な応用の観点から将来を考えることで、議論の深みが増していきました。


特に、機械学習によるイノベーションの墓場とみなされがちな医療分野に焦点を当てたのは、マウントサイナイ病院アイカーン医科大学助教授のKarthik Dinakar氏でした。 Dinakar助教授は、臨床医学の複雑さを中心テーマに、臨床ケアにおけるバイアスの特定に関する自身の研究から、インサイトを共有しました。

「臨床試験は通常、非常に狭い人口に焦点を当てているため、世界中での適用性に関しては疑問が生じます。たとえば、日本やアフリカの医師は、アメリカで行われた臨床試験が彼らの患者にどのように適用されるか、疑問に思うでしょう。アメリカで開発された多くの薬は、他国の人口に対しては強すぎるケースがあります。これを解決するために、自然言語インターフェースを医師向けに統合し、シンボリックAIで裏付けを行うことで、患者に対するより個別化されたインサイトや治療を提供することができます。このアプローチは、広範な臨床試験データと個々の患者ケアのギャップを大幅に埋めることができます。」


ゲームもまた、興味深い議論として浮上しました。人工生命や生命に近い行動のシミュレーションを専門とする岡瑞起氏(筑波大学コンピュータサイエンス学部 准教授)は、認知的にリアルなエージェントを用いた大規模なシミュレーションに関する議題を挙げました。

岡教授は次のような問いを投げかけました。「もしシミュレーションされたエージェントに、現実的でシンボリックな心的経験を与えることができたらどうなるでしょうか?」。これを受けてパネリストたちは、ニューロ・シンボリック的アプローチがゲーム体験を向上させ、より現実的で没入感のあるものにする方法を探求し始めました。例えば、プレーヤーが自分自身を仮想世界で探求することに役立つような、さまざまなアイデンティティを演じることができるゲームをプレイすることを想像してみてください。自己強化型学習エージェントを持った現在のゲームは、狭く自己中心的なものになりがちなため、より深く、より協力的な対話が可能なAIエージェントを開発するチャンスがあります。

AIにおける日本哲学の役割:平和と調和と進歩のバランス
パネリストによる最後のディスカッションでは、使いやすく信頼性のあるAIの創造に与える、日本の哲学のユニークな影響についても探求しました。


一般的に日本では、アメリカとは対照的に”競争”に対する嫌悪感が強く、これがAI開発に対する視点という意味では、独自のポジションにいることは明らかです。これは、日本のスタートアップ企業がアメリカのスタートアップ企業に遅れをとる理由でもあるかもしれませんが、調和・平和など、日本の「和」の概念は、協力と競争のバランスが求められるAIの未来においては特に重要な役割を果たす可能性があります。

スチュアート・ラッセルが指摘するように、絶対的な確信と何が最善かという単一的な概念で作動するAIエージェントは、破滅的な結果をもたらす可能性があります。このことは、協力可能なAIシステムを設計することの重要性を強調する一方で、哲学的な概念を実用的なアプリケーションに変換する上で、AIのシンボリックなレイヤーが重要になることを示唆しています。
このことは、最終的に次のような重要な問いにつながります。AIシステムをどのようにトレーニングすれば、絶え間ない成長ではなく、「和」を通じて多様性を受け入れ、斬新さを求め、幸福を追求させることができるのでしょうか?これらの問いは、技術的に高度なだけでなく、倫理や哲学に基づいたAIの開発への扉を開きます。

今後に向けて

第26回NCCを締めくくるにあたり、AIの未来は単なる技術的な進歩だけでなく、社会に有意義に導入されるものであるべきだということを改めて強調しておきたいと思います。また、DALは、より信頼性が高く、透明性が高く、有益なAIシステムを創造する可能性を常に考え、不確実性プログラミングの分野で先駆的な取り組みを続けています。テクノロジーと人間の価値観の相互作用を探求することで、AIが私たちの能力を高めるだけでなく、より調和のとれた豊かな世界の創造を追求していきます。ぜひご期待ください!




Joseph Park is the Content Lead at DAL (joseph@dalab.xyz)

Illustration: Satoshi Hashimoto
Edits: Janine Liberty

More from DAL Blog

上手くいったこと、上手くいかなかったこと、そしてこの挑戦から学んだこと。
DALのコミュニティリードが、多様なチームを超えた同僚同士のつながりを深め、sense of belongingを育むことについて考察する
急速に発展する時代において、技術の進歩と人間の主体性のバランスを探る。

より有用で信頼性のあるAIに向けて:未来への展望を見据えて

×