近年、「AI倫理」という言葉を一度は耳にしたことがあるかもしれません。AIが家庭用電子機器やスマートフォン、ショッピングアシスタントなどに組み込まれ、私達の生活の一部として普及していく中で、この概念は益々議論されるようになっています。しかし、AI倫理とは一体何なのでしょうか?
広義的に言えば、AI倫理とは、AI技術について批判的に考え、その潜在的な影響に対して、個人レベルおよび社会レベルでどのように対応すべきかを検討する取り組みを指します。この用語は国際的にも議論を呼んでいます。最近では、AIの利用に関する規範的な枠組みの策定において最も積極的な国連機関となったユネスコ(UNESCO)が「AI倫理」という言葉を使用しています。同様に、世界最大の技術専門家組織である米国電気電子学会(IEEE)も、自律型知能システムの設計段階から「倫理的に整合した設計」という概念を強調しており、そのための国際標準も設定しています。
AI倫理の分野において、厳格で創造的な取り組みが多く行われているにも関わらず、この議論は全体的な枠組みの中では依然として少数派であると言っても過言ではありません。AI倫理は、まだAI業界の開発や研究へのアプローチに十分な影響を及ぼしていません。ニュースメディアはAIの開発に対して批判的な姿勢を示すことが多いものの、その焦点はAIができること・できないことに集中し、深い倫理的な懸念を明らかにするというよりも、私達が感じる恐怖を反映しているように見えます。一方で、業界の主要なプレーヤーは、人工汎用知能(AGI)の概念に過度に集中しているように思われます。結果、「AIの安全性」という言葉は、殆ど専らスーパーインテリジェンスに対する安全対策を意味するようになり、雇用の喪失、環境への影響、アルゴリズムのバイアス、特に少数派の集団に影響を及ぼすものなど、より差し迫った倫理的懸念を見過ごしているのが現状です。
AI倫理の課題
AIが汎用的なツールであるため、AIを取り巻く倫理的なグレーゾーンは広範であり、未だに捉えどころのないスーパーインテリジェンスの脅威に限られたものではありません。しかし、主要なAIカンファレンスでは、業界のリーダー達がAI倫理の話題を後回しにし、AIの能力に関する長い議論の後、最後の数枚のスライドで軽く触れる程度に留まっています。なぜこのテーマを前面に押し出すことがこれほどまでに難しいのでしょうか?
AI倫理に対する一般的な反論の1つは、テクノロジーを批判することは本質的に反技術的であり、ひいては反進歩的であるという誤解に基づいています。この誤解は、以前の記事で取り上げたネオ・ラッダイト運動に関連していますが、その重要なポイントは、テクノロジーの進展を支持しながらも、その開発や利益の分配に対して批判的でありうるということです。
AI倫理に関する最大の課題は、倫理という言葉自体にあるのかもしれません。ジョン・タシオラスは、倫理について「時には狭義で個人主義的に解釈されることがあり、それは個人の行動を導くことに関心があるものとされる」と指摘しています。(この個人主義的な焦点は文化によって異なります。例えば、韓国語の「倫理」にあたる「윤리(ユンリ)」は、より強い個人主義的な意味合いを持ちますが、これは普遍的なテーマのようです。)
この個人主義的な倫理観を採用するならば、それをAIに適用することは問題となります。AIはしばしば価値中立的な科学技術的概念として認識されています。そのため、詐欺や殺人のような一般に非道徳的とされる行為を議論しない限り、AI倫理の概念は不自然で的外れに感じられたりするのです。
しかし、この視点では、AIに関連する意思決定が行われ、実行されるより広範な制度的及び社会的な文脈を見落としています。個人の価値観に基づいて「倫理的」な決定を下すことは単純かもしれませんが、複数の個人、コミュニティ、または社会全体が関与する場合、そのプロセスは急激に複雑になります。
例えば、「パフォーマンスを犠牲にしてでもAIシステムの説明可能性を向上させることを優先すべきか?」や「AIのバイアスが単に社会の現状を反映しているように見える場合でも、AIのバイアスを修正すべきか?」といった質問について考えてみてください。こうした問題について結論づけることは、多くのステークホルダーが関与する場合、非常に困難で時間のかかるプロセスとなります。絶え間ない交渉、妥協、トレードオフが繰り広げられる、価値観が競い合う広大な戦場が想像できます。この急速に進化する状況では、万能な解決策は存在せず、むしろ、急速に進歩するAI技術の中で、絶えず変化する環境に対応するための意識を持ち、行動できるダイナミックで主体的な人材を育てることが求められます。
AI倫理の議論が価値あるものであることを証明するのはこの点です。AI倫理は、最先端技術に対する圧倒的に肯定的な見方から一歩引いて、より広範な影響について考えることを可能にします。これにより、AIが私達の社会で果たす役割について、より細かく深い理解を得ることができ、長期的な影響を理解するための枠組みを共同で構築することが可能となります。
Embedded EthiCS
この文脈において、私たちのチームが数週間前に参加したFAIR AIカンファレンスは重要なイベントであり、特に「Embedded EthiCS」への取り組みが際立っていました。
2015年、ハーバード大学コンピュータサイエンス教授のバーバラ・グロースは、「Embedded EthiCS」の創設につながる重要な経験をしました。AIと倫理に関心を持つ24人の多様な学生を対象に、知能システムと倫理的課題に関する講義を担当していたグロースは、現実世界のシナリオにおける倫理的考慮を含む課題を課しました。学生達は、ソーシャルメディアプラットフォームの広告ターゲティングアルゴリズムのプロフィール機能をリストアップするように求められましたが、驚くべきことに、学生達は技術倫理に関心があったにも関わらず、自身がした選択の倫理的な意味を考慮した学生は誰一人といませんでした。この経験がグロースと彼の同僚達がEmbedded EthiCSプログラムを開発するきっかけとなり、倫理に対する理論的な関心と技術的問題解決における倫理的思考の実践的応用との間に存在する大きなギャップを浮き彫りにしました。
Embedded EthiCSは、倫理を別のコースとして提供するのではなく、大学のコンピュータサイエンス(CS)学位カリキュラムに倫理を自然に組み込むことを目指しています。コンピュータサイエンティスト、哲学者、人類学者、倫理学者などの学際的なチームによって設計されたこのプログラムは、技術の設計と構築における広範な技術的及び社会的影響を強調する反復的な学習体験を学生に提供します。様々な分野の仲間や専門家との対話を通じて、学生は倫理的な意識を育み、技術に倫理を統合するには複雑な価値のトレードオフを乗り越える必要があることを理解します。
Embedded EthiCSプログラムは、AI倫理の価値が何であるかを再確認させてくれます。Embedded EthiCSの最も重要な目標は、できるだけ学生に多くの異なる倫理観に触れさせることです。AI倫理のような批判的議論の価値は、必ずしも「正しいことをする」のではなく、情報の多様性を増やし、少なくともそれに触れる人々が自分の価値観により合った方法で自分の意見を決定できるようにすることなのかもしれません。例えば、AIを環境に優しい方法で使用すること、少数派グループに対する偏見を減らすこと、またはアーティストの創造性をより効果的に評価することなどが考えられます。
Flourishing(成長)への道としての倫理
倫理の目標はしばしば、Flourishing(成長)という考え方と結びつけられます。前述のジョン・タシオラスが 雄弁に語ったように、「倫理とは、豊かな人生を送るとはどういうことなのかに関わるものである」。
これは、私たちDALが達成しようとしていることの文脈でも特に重要です。つまり、必ずしも物質主義的な視点に根ざしたものではない多様な人間のFlourishing(成長)の形を描くことです。AI業界が前例のない速度で進歩し、情報の非対称性が急速に高まる中で、豊かな人生とはAIのようなテクノロジーに受動的に支配されるのではなく、テクノロジーをツールとして積極的に活用し、自身の人生をデザインする自由を持つことかもしれません。そして、「AI倫理」という言葉は、このような人間のflourishing(成長)を的確に表現しています。充実した人生とは、テクノロジーに受動的に任せるのではなく、テクノロジーをツールとして積極的にライフデザインができる、テクノロジーに対するバランスのとれた視点を持つことかもしれません。
この使命を達成するため、DALは引き続き歩んでいきます。執筆、ワークショップやカンファレンスの開催を通じて、AI倫理と人間のFlourishing(成長)に関する重要な対話への意識を更新し、維持することに尽力します。多様な視点が表現され、理解されるよう努めます。また、AI倫理を主要な関心事項の一つとしているMESHスタジオの取り組みを通じて、学際的なコラボレーションや革新的なアプローチを育成し、急速に進化する技術的環境の中で、これらの重要な課題に取り組んでいくことを目指しています。
Joseph Park is the Content Lead at DAL (joseph@dalab.xyz)
Illustration: Soryung Seo
Edits: Janine Liberty