コロナ禍におけるワクチン接種のように、多くの人が強い感情を抱くテーマでは、この傾向が特に顕著になります。
企業や医療機関がオンラインの相談窓口にAIチャットボットを導入するケースは、今後ますます増えるでしょう。
その際、恥ずかしい内容の相談はAIが適している一方で、クレーム対応や強い不満に対しては、人間スタッフの共感スキルが依然として重要です。
つまり、どちらが優れているかではなく、利用シーンや感情の種類に応じて適切に役割分担をすることが重要といえます。
将来的には、AIが音声や文章から利用者の感情をより正確に認識し、柔軟に対応を変えることが期待されます。
すでに感情認識技術は進んでおり、「怒りを感じています。サポート担当者につなぎますね」といったシステムの実現も近いかもしれません。
ただし、AIが判断を誤ったり、利用者が意図しないタイミングで情報を人間スタッフに転送するなど、プライバシーや倫理の問題が生じるリスクも存在します。
最終的には、「どんなとき、どんな相手とコミュニケーションをするのが自分にとって心地よいのか」を利用者自身が理解することが大切です。
怒りを吐き出したいのか、恥ずかしさを隠して静かに情報を得たいのかによって、選ぶべき窓口は自然と変わるでしょう。
本研究の発見は、一人ひとりが自分の感情に合った相談先を選ぶヒントになるだけでなく、企業や公共機関がよりきめ細やかなサービスを設計する指針にもなると考えられます。
全ての画像を見る
元論文
Consumers’ Emotional Responses to AI-Generated Versus Human-Generated Content: The Role of Perceived Agency, Affect and Gaze in Health Marketing
https://doi.org/10.1080/10447318.2025.2454954