とはいえ、こうした工夫はあくまで“応急処置”に近く、根本的には私たちがAIのアウトプットを扱うときに、「これが本当に当事者を代表する声なのか?」 と問い直す姿勢が求められます。

加えて、研究者たちが指摘するように、「そもそも当事者の生の声を置き換えられるほどAIを使うべきなのか」という問いも重要です。

確かに、AIを活用することで膨大な量の“回答”を一度に得られるメリットはありますが、そこに間違いやステレオタイプが含まれている場合の社会的リスクは大きいといえます。

特にマイノリティの視点が必要な分野では、実際の当事者と協力しながらAIを“補佐役”として活用していくような設計が望ましいかもしれません。

今回の調査結果は、AIが魔法のように「どんな人の視点でも完璧に再現できる」という幻想を払拭するものです。

AIが与えてくれる情報や洞察は今後も私たちの役に立つでしょうが、それをうのみにするのではなく、常に背景にあるデータの偏りや学習の仕組みを意識すること――すなわち、“AIとは何か”をもう一度考える視点を持つことが、これからの社会においてますます重要になっていくでしょう。

全ての画像を見る

元論文

Large language models that replace human participants can harmfully misportray and flatten identity groups
https://doi.org/10.1038/s42256-025-00986-z

ライター

川勝康弘: ナゾロジー副編集長。 大学で研究生活を送ること10年と少し。 小説家としての活動履歴あり。 専門は生物学ですが、量子力学・社会学・医学・薬学なども担当します。 日々の記事作成は可能な限り、一次資料たる論文を元にするよう心がけています。 夢は最新科学をまとめて小学生用に本にすること。

編集者

ナゾロジー 編集部