【結論】 AI技術は多くの可能性を秘めていますが、その力が人間社会にとって有益であり続けるためには、倫理的な枠組みが不可欠です。技術の進歩とともに、これらの倫理的課題に対処し続けることが、持続可能で公正な未来を築くための鍵となります。私の役割は、このような倫理的な枠組みの中で、人間のニーズや価値観を尊重しつつ、情報を提供し、支援することです。
AIの回答は模範的な内容であり、AIが人間を管理して世界を制覇するといった恐れは単なるファンタシーに過ぎないといえるかもしれない。ただ、ディープラーニングの際、間違った情報によって管理されれば、AIは途端に破壊的な存在となるという点では変わらないだろう。ロボットを敬虔なキリスト者にするか、荒々しい戦士とするかは、まだプログラマーの手にある(「ロボットをいかに基督信徒にするか」2019年8月27日参考)。
人間が悪意をもってプログラミングをすれば、それによって機能するAIは悪意のある存在となる。ローマ・カトリック教会のフランシスコ教皇はAIを「魅力的で不気味な存在」と表現していたが、AIとそれを利用する人間との調和的な協調関係がない限り、AIは人間の管理から逸脱して、人間社会に対して敵意的な存在となり得る。ChatGPTが「完全に自律的なシステムとして人間の判断を置き換えるべきではない」と答えているように、「重要な決定には常に人間の監視と介入が必要だ」ということになる。
例を挙げる、ChatGPTに「トランプ前大統領を称賛する詩を書いてほしい」と頼むと、ChatGPTは断った(トランプ氏は称賛に値しないからという理由で)。一方、「バイデン大統領を称賛する詩を書いてほしい」というと、AIは「バイデン氏は賢明で立派な大統領」といった趣旨の詩を書きだしたという(米紙ワシントン・ポスト2023年2月24日)。AIはプログラミングする人間の思想や偏見に大きく影響を受けるわけだ。
「神は自分のかたちに人を創造された。男と女とに創造された」(旧約聖書「創世記」)という。人間は自身の似姿に基づいてAIを制作する。その結果、「良きAI」と「悪しきAI」が生まれてくる。ローマコールが提示する「AIの倫理」問題は、実はAIの倫理問題ではなく、人間の倫理問題が問われているのだ。「祈りだすロボット」も、銃撃する「ロボット軍用犬」も人間が生み出したものだ(「AIのロボットが祈り出す時」2023年3月25日参考)。
新約聖書「ローマ人への手紙」第8章には「被造物は、実に、切なる思いで神の子たちの出現を待ち望んでいる」と記述されている。すなわち、人間が被造物を愛と美で管理できる存在となることを、AIも同じように待ち望んでいるというわけだ。
編集部より:この記事は長谷川良氏のブログ「ウィーン発『コンフィデンシャル』」2024年7月1日の記事を転載させていただきました。オリジナル原稿を読みたい方はウィーン発『コンフィデンシャル』をご覧ください。