研究者たちは「AIが頼もしいアシスタントになりつつある今こそ、その限界やバイアスをしっかり認識しておく必要がある」と警鐘を鳴らしています。

AIにアンケートを行うのは非常に危険

AIとの「なりきり」会話に潜む違和感の正体が判明
AIとの「なりきり」会話に潜む違和感の正体が判明 / Credit:Canva

今回の研究が示す最も大きなポイントは、AIチャットボットが「当事者の声をまるごと再現している」とは言いがたいという事実です。

多くのユーザーが感じていた「なんだか本物っぽくない」「ステレオタイプすぎる」という違和感は、まさにAIの学習プロセスにおける構造的な問題を映し出していました。

そもそも大規模言語モデルは、インターネット上に存在する膨大なテキストデータから「もっとも典型的と思われる言葉の組み合わせ」を学習し、その蓄積を頼りに回答を生成します。

そのため、個人が持つ微妙なニュアンスや多様な背景は、統計的に目立ちにくいものとして埋もれやすくなります。

また、人間社会にはびこるステレオタイプや偏見を含む文章も大量に含まれているため、AIはそれを区別なく“平均化”してしまうのです。

結果として、「〇〇という立場にいる人は、こういう語り口になる」という一般化されたパターンばかりが表面化し、本物の当事者が語るような複雑な思いや経験は反映されにくくなります。

この問題を放置すると、企業や行政機関がユーザーや市民の声を収集したい場面で、AIを使った“擬似的な意見”だけを参考にしてしまい、当事者の切実な声を見逃す可能性があります。

たとえば、「女性としての働き方」や「障がいを持つ人が日常生活で直面する課題」など、当事者の視点が極めて重要な領域において、AIの一面的な回答をまるで本物の意見のように扱うことは、誤解やさらに強固なステレオタイプの再生産につながりかねません。

一方、研究チームは一部の対策として「アイデンティティを明示的なラベルで与えず、その属性に紐づきやすい名前を使って質問する」方法や、「特定の人種・ジェンダーなどセンシティブな情報に依らないランダムなペルソナを用いる」ことが、誤ったステレオタイプ表現を多少軽減するケースがあることも示しています。