しかし、怒りという強い感情を抱えたままチャットボットに向かっても、本当に気持ちを受け止めてもらえるかは疑問視されます。

実際、AIは24時間いつでも対応できる反面、相手が「機械」と感じると、かえって冷たく感じられることがあります。

そこで研究チームは、人間によるサポートとAIチャットボット、それぞれの特徴がどのように人々の感情と結びついているのかを深く探ることにしました。

特に注目したのは、「怒り」と「恥ずかしさ」という二つの感情です。

どちらもワクチン接種にまつわる不安や対立の中でよく見られ、相談しにくい状況を生み出す要因となっています。

もし感情の性質によって対話相手の選び方や得られる満足度が大きく変わるとすれば、医療現場や行政の情報提供の方法にも新たな示唆が得られるかもしれません。

そんな問題意識から本研究は始まったのです。

調査にあたってはまず100名の参加者を募り、コロナワクチンやブースター接種に対する意見や印象を事前に確認しました。

次に、参加者は研究室内のパソコン画面で「映像」を視聴する段階に進みました。

映像の内容は大きく3種類あり、一部の人には家庭内暴力のシーンなどで怒りを誘発するもの、別の人には官能的なシーンで恥ずかしさを感じやすいもの、そして対照的に自然や景色の映像といった中立的なものがランダムに割り当てられました。

研究チームは、このときアイトラッキング装置を使用して、参加者が映像のどこをどれだけ注視しているかを計測しました。

これにより、参加者が「怒っている」「恥ずかしい」と明言しなくても、視線の動きから感情の変化を推測することができました。

映像視聴後、参加者は「AIチャットボット」か「人間のスタッフ」か、いずれかとの対話を行いました。

チャットの内容は、アメリカの公的機関が提供するワクチン関連のFAQをベースとした情報交換でした。

ここでも、どちらに割り当てられるかは無作為に決定され、参加者自身が選んだわけではなく、研究側が条件をコントロールしました。