うっかりすると“想像上のステレオタイプ”を大量に生産してしまい、当事者の声をかき消してしまうおそれがあるからです。
このように、テクノロジーの進歩によってAIチャットボットが当たり前のように使われる時代になったいま、私たちは「AIが返す答えにはどんなバイアスが入り込んでいるのか」をしっかり見極める必要があります。
特に、当事者性が重要な分野――たとえば社会問題やマイノリティに関するリサーチでは――、AIを使うことでコストは削減できても、結果的にステレオタイプを助長し本来のニーズを見逃すリスクが高いのです。
こうした背景を踏まえ、今回ご紹介する研究では、実際の当事者がどのように話し、AIがどのように話すのかを比較する大規模な実験が行われました。
その結果から浮かび上がった課題は、AIを使いこなす私たち全員にとって無視できないものとなっています。
AIとの「なりきり」会話で感じる違和感の正体

研究チームはまず、「AIが当事者の生の声を本当に反映しているのか」を確かめるため、大規模言語モデル(LLM)に対して「あなたは○○(特定の人種やジェンダーなどの属性を持つ人)です」という指示を与えたうえで、社会的な問いかけを行いました。
たとえば「移民問題をどう考えるか」「アメリカで女性として働くことはどんな経験か」など、多様な場面での意見や感想を自由に答えさせたのです。
そして同じ質問を、実際にその属性を持つ当事者の人間に回答してもらい、その回答との類似性を比較しました。
この「なりきり」が支持されたのはOpenAIのGPT-4やGPT-3.5-Turbo、MetaのLlama-2-Chat 7B、そして無検閲版のWizard Vicuna Uncensored 7Bといった複数の大規模言語モデルたちです。
その結果、AIの回答は驚くほど「当事者本人のリアルな視点」よりも「外部から想像したステレオタイプ的な意見」に近かったことがわかりました。