ハルシネーションとは、簡単に言えば、AI(人工知能)が不確かな情報をあたかも真実のようにでっちあげる現象です。
たとえば「flothery」という言葉を「ふわふわした柔らかさ」と解釈しましたが、本来の意味は「だらしないのに見栄を張っている様子」です。
この結果は、ChatGPTがあくまで確率的な言語モデルであり、常に正解を知っているわけではないことを示しました。
意味のない言葉はどう「理解」するのか?
別の実験では、「意味を持たないナンセンスな単語(nonwords)」を使って、ChatGPTの言語感覚を試しました。
たとえば、意味のない英単語風の造語(例:「glerm」「wask」など)について、「どれくらい“英単語っぽく”聞こえるか」を1〜7点で評価させるタスクも実施されました。
これはそのナンワードがどれほど英語らしく聞こえるかを判断させるものであり、その評価を英語話者の人間による評価と比較。
結果、ChatGPTの評価は人間のネイティブスピーカーと高い相関を示し、同時に「その語がブランド名だったら買いたいか」という判断にも類似した傾向を見せています。
またチームは、ChatGPTに新しい概念を表す新語を作らせる実験も行いました。
この新語創作タスクで、ChatGPTはなかなか興味深い仕事をし、多くの場合、ChatGPTは2つの単語を組み合わせるという予測可能な方法で新語を生み出していました。
その結果として以下のような新語が作られています。
・ラウズレイジ(rousrage):目覚ましで起こされたときの怒り
・プライディファイ(prideify):他人の成功を自分の誇りに感じること
・スタンブロップ(stumblop):自分の足につまずくこと
・レクシナイズ(lexinize):ナンセンスな語が意味を持ち始める過程
これらは実在しない言葉ですが、実際の単語の構造や意味の組み合わせを巧みに利用しており、AIの“擬似的な創造性”を垣間見ることができます。
