人工知能(AI)が人間と同じように「考える」わけではないことは、多くの人が理解しているだろう。しかし、その違いが具体的にAIの意思決定にどう影響し、現実世界で私たちが予期せぬ事態を招く可能性があるのか――。最新の研究が、その核心に迫る発見を報告している。

 この研究は、特にAIが「類推(アナロジー)」する能力、つまり、ある状況で得た知識やパターンを、別の似たような、しかし新しい状況に応用する能力に焦点を当てた。結果は驚くべきもので、AIはこの人間が得意とする思考プロセスにおいて、根本的な限界を抱えている可能性が示唆されたのだ。

パターン認識は得意でも、「応用」が苦手なAI

 アムステルダム大学の研究者らが参加した研究チームは、大規模言語モデル(LLM)を対象に、いくつかのテストを実施した。一つは単純な文字列のパターンを見つける問題。例えば、「もし『abcd』が『abce』になるなら、『ijkl』はどうなる?」といった形式だ。これに対しては、人間もAI(GPT-4など)も「ijkm」と正しく答える傾向があった。

 しかし、少しひねった問題になると、AIのパフォーマンスは著しく低下した。例えば、「もし『abbcd』が『abcd』(重複したbを除く)になるなら、『ijkkl』はどうなる?」という問題。多くの人間は、ルールを抽象化して「ijkl」と答える。ところが、GPT-4のような高度なAIでさえ、こうしたタイプの問題では間違いが多くなったという。研究チームのマーサ・ルイス助教授(アムステルダム大学)は、「AIは特定のパターンを認識し、それに合わせるのは得意だが、そのパターンからより一般的なルールを導き出して応用(抽象化)する能力は低いようだ」と指摘する。

 さらに、物語に基づいた類推問題や、欠けている数字を推測するデジタル行列問題でも、人間と比較してAIの成績は振るわなかった。特にAIは、質問や選択肢の提示順序によって回答が変わってしまう「回答順序効果」の影響を受けやすい傾向や、単に元の情報を言い換えるだけに留まる傾向も見られたという。これは、AIが訓練データに含まれていなかった未知の事例に対して的確な予測を行う「ゼロショット学習」能力に限界があることを示唆している。

AIと人間の「思考回路」はこんなに違う? 潜むリスクと今後の課題
(画像=イメージ画像 generated using QWEN CHAT,『TOCANA』より 引用)