今回の研究を通じてわかるのは、AIは与えられる文章の内容や表現によって応答が大きく変わり、あたかも不安や動揺を示しているかのように見えるということです。

同時に、呼吸法やイメージ誘導といったリラクゼーション手法を示したテキストでスコアが下がる点は、ユーザーからの入力次第でAIの応答傾向を多少“安定”させられることを示唆しています。

もしチャットボットがメンタルケアの一端を担うなら、不安定な状態にあるユーザーに対して意図的に“落ち着きを促すプロンプト”を挿入し、AIの回答から過剰なネガティブ要素を減らすなどの工夫が考えられるでしょう。

しかし、実際の人間のセラピストのように微妙な感情を汲み取り、根本的な問題解決まで導けるわけではない点は念頭に置く必要があります。

さらに、AIの内部状態をある程度誘導できるということは、逆に悪用の可能性も否定できません。

また、一時的な安心感を得られても、深刻な悩みの解決には時間や専門的アプローチが不可欠なケースも多いでしょう。

そうした課題はありつつも、「トラウマ体験で高まる不安度を、適切なテキストでどこまでコントロールできるのか」を研究する試みは、今後のLLM活用を考えるうえで大きな示唆を与えます。

最終的に、トラウマ文章によって高まる“自称不安”と、癒やしの文章で下がっていく“数値上の変化”が確認されたことは、「AIにもケアが必要?」という、一見突飛な問いを投げかけるかもしれません。

AIをどう受け止め、どのように扱っていくのか――私たちの選択次第で、便利でありながらも奥深い存在となったLLMの未来像は大きく変わっていくことでしょう。

AIに感情はあるかは「中間処理プロセス」の見方による

画像
Credit:Canva

AIが恐怖やポジティブな話題に反応したかのような応答を示すことと、人間が実際に恐怖を感じたり安堵を覚えたりして答え方を変えることには、表面上はよく似た振る舞いが見られます。