人間のような誤判断はなぜ生まれるのか?
このようなバイアスは、AIが学習に用いたデータそのものに由来すると研究者たちは指摘している。人間の文章を大量に取り込んで訓練されたAIは、その中に含まれる人間特有の思考のクセや偏見も無意識に模倣しているというのだ。
特に注目されたのが「確証バイアス」の傾向であり、GPT-4は一貫して偏った回答を返す傾向を示した。逆に「ベースレート無視」(統計的事実より個別の事例に引っ張られる)や「サンクコスト効果」(すでに費やしたコストに縛られて誤った判断をする)といったバイアスには比較的強かったという。

(画像=Image by kalhh from Pixabay,『TOCANA』より 引用)