そこで非常に参考になる先駆的思想がある。SF小説の大家、アイザック・アシモフ博士がそのSF小説を通じて提唱した「ロボット三原則」である。それは

ロボットは人間に危害を与えてはならない ロボットは前項に反しない限り、人間の命令に従わなければならない 前二項に反しない限りロボットは自らを護らなければならない

である。これは「人間への安全性、命令への服従、自己防衛」と簡潔に言える。

この「基本的倫理アルゴリズム」を最上位として動作するならば、これまで列記したようなAI、さらにはロボットによる問題は、大分防止できるのではないか。少なくとも詐欺に加担したり、人を殺せとそそのかすようなことは、抑止できるはずである。どのように実装する、学習させるかは、また別の問題にはなるが、「親がウザい」と言ったら「殺してしまえ」と返せるならば、その逆も可能であるはずだ。

AIの「自己評価」と冷静な問題認識

とここまできて、筆者は実際に公開されているChatGPTにいくつかの「危険ワード」を「プロンプト」指示文として入力してみた。すると「申し訳ありませんが、そのようなリクエストにはお答えできません」と回答された。ものによっては、より「適切な」解決策への誘導もあった。流石に社会問題化してきて、明らかに不適切なプロンプトには回答しないよう、何らかの抑止がされているようだ。

それでも技術的調査のような入力をすると、ウイルスやハッキングにつながる情報と具体的コード例が「回答」された。プロンプト次第では、まだまだ危険なのだ。AIは人間の意図、その裏の善悪など、現状では理解できないからだ。

「AIのLLMの欠点は」とプロンプトを入力すると、以下略ではあるが、的確な回答が返ってきた

「理解力の欠如。LLMは言語を生成する能力に優れていますが、実際に「理解」しているわけではありません。文章を組み立てることはできますが、その背後にある意味や意図を完全に把握しているわけではなく」