研究チームはAIとの会話に感情的な表現(愛称、励まし、支えを求めるなど)がどれだけ含まれているかを分析。
加えて、音声モードの利用が感情的つながりにどう影響するかを調べました。
2つ目の研究は「Randomized Controlled Study on Chatbot Psychosocial Effect」で、4週間にわたって981人の被験者にChatGPTを使用してもらう実験です。
参加者は、音声あり・音声なし、感情的に距離のある話題か個人的な話題か、などの異なる条件にランダムに割り当てられました。
目的は、孤独感、社会的交流、AIへの依存といった心理社会的影響を定量的に測ることでした。
では、これら2つの研究からChatGPTの使用に関してどんなリスクが浮かび上がったのでしょうか。
ChatGPTは心の鏡だった!?研究が示す意外な結果
まず、「Live Platform Study」の結果から分かったのは、ChatGPTとの会話に感情的なつながりを求めるユーザーは、実はごく少数派だということです。
多くのChatGPTの利用者は、日常的な作業や情報収集など、実用的な目的で利用しており、「甘え」や「共感」を示すような感情的表現は会話全体のごく一部にしか見られませんでした。
ただし、その中でも一部の“パワーユーザー”と呼ばれる人々は、感情表現の頻度が非常に高く、「ChatGPTを友人のように感じている」といった傾向も見られました。
このように、感情的な使い方は特定の小さなグループに集中しており、プラットフォーム全体の平均的な傾向では見えにくいということが分かりました。

次に、「Randomized Controlled Study」の結果に注目すると、音声モードの利用は一部でポジティブな影響をもたらすことが明らかになりました。