近年、AIチャットボットはとても自然な会話をするようになり、まるで本物の人間と話しているかのように感じることが増えています。

企業や研究者は、アンケート調査や製品テストなど、もともと人が行っていた作業をAIに任せることで、費用や時間を節約しようと考えています。

しかし、アメリカのスタンフォード大学で行われた研究によって、「黒人女性」や「女性」といった特定の属性を持つ人になりきって回答させた場合、実際の当事者が感じる本当の意見とは違い、まるで外部の人が想像したイメージに基づいた返答になってしまうことが明らかになりました。

一見、AIはどんな立場の人の視点も取り入れられるように見えますが、実際は固定されたイメージや偏った考え方(ステレオタイプ)が混ざってしまう大きな問題があるのです。

本記事では、AIがどのようにしてこのような「なりきり」回答を作り出しているのか、そしてそれが私たちの期待とどうずれているのかについて、最新の調査結果をもとにわかりやすく解説していきます。

研究内容の詳細は2025年2月17日に『Nature Machine Intelligencenature』にて発表されました。

目次

  • AIとの「なりきり」会話では妙な違和感が感じられる
  • AIとの「なりきり」会話で感じる違和感の正体
  • AIにアンケートを行うのは非常に危険

AIとの「なりきり」会話では妙な違和感が感じられる

AIとの「なりきり」会話に潜む違和感の正体が判明
AIとの「なりきり」会話に潜む違和感の正体が判明 / Credit:Canva

ここ数年、私たちの身近に一気に普及したAIチャットボットは、まるで友人と会話しているかのようなスムーズな文章を返してくれます。

たとえば、学校の宿題で調べものをしたいときや、ちょっとした雑談の相手が欲しいときにAIを起動すると、すぐにそれらしい文章が出てくるので、初めて触れた人は「AIってこんなに自然に話せるんだ!」と感動した経験があるかもしれません。