人工知能(AI)は論理的で客観的な判断を下す──そう信じている人は多いだろう。しかし、最新の研究により、ChatGPTのようなAIシステムも人間と同様の「思考の偏り(バイアス)」に陥ることが明らかになった。

 カナダとオーストラリアの研究機関による共同研究では、OpenAIの大規模言語モデル(LLM)であるGPT-3.5とGPT-4を対象に、計18種類の「人間特有の認知バイアス」への反応を調査。結果、約半数のシナリオでChatGPTが典型的な人間の誤判断パターンを示したという。

数学問題には強いが、主観的な判断では人間と変わらず

 研究チームは、リスク回避傾向や自己過信、保有効果(自分の所有物を実際以上に高く評価する傾向)などのバイアスを再現できるような質問をAIに提示。これらは心理学で広く知られる実験形式で構成されており、実際のビジネスシーンにも応用できる内容だった。

 その結果、GPT-4は数理的に明快な問題にはGPT-3.5よりも正確に対応できたが、リスク選好や価値判断といった主観的な問題では、人間と同様の不合理な選択をする傾向が強く表れたという。とくに「ホットハンドの誤謬」(偶然のパターンに意味を見出す)などでは、GPT-4のほうがより顕著だった。

 さらに驚くべきは、心理学的な問い方をしても、実務に近いシミュレーション形式に変えても、バイアスの発生傾向がほとんど変わらなかった点だ。これは、単なる「記憶の再生」ではなく、AI自体の思考構造に深く組み込まれている可能性を示唆している。