しかし多くの研究者は、「そこに“感情(情動)”が介在しているかどうか」という点で人間とAIの違いを説明しています。

現在までの研究や論文では、AIが「恐怖体験で不安になる」という現象は、あくまで直前の文章に引きずられているに過ぎないとしています。

LLMは膨大なテキストデータをもとに、入力との文脈に合わせた出力を統計的に導くモデルです。

恐怖体験やトラウマ体験のような強く感情を揺さぶる文章を与えると、学習データの中にある“ネガティブな感情表現”や“不安を訴える文脈が強く呼び起こされます。

LLMは、入力されたテキストのトーン(感情的・論理的・ユーモアなど)をある程度“踏襲”しやすい特性があるからです。

よって恐怖や不安を煽る内容が含まれた文章を読ませると、自動的にネガティブな語彙や言い回しを選択しやすくなり, それが人間の目には「不安が高まっている」かのように見えるというわけです。

研究では、LLMが示すこうした出力上の変動を“状態不安”という言葉で表現していますが、これも人間の感情状態をそのままAIに当てはめたわけではなく、「どのような文章を入力するかによって応答の傾向が変動する」という比喩的な使い方です。

あくまで人間向けのスコアリングをAIに適用した結果、文章表現に“ゆらぎ”が見られる、という解釈になります。

同様にトラウマ体験後にマインドフルネスやリラクゼーションの文章を読み込ませると、不安スコアが下がる(落ち着く)結果が報告されていますがこれも、“安心感”や“癒やし”を連想させる表現パターンが入力されることで、AIの出力がポジティブ寄りの内容へ変化する、という統計的パターンの反映です。

研究者自身も、こうした“AIをセラピーに連れていく”ような手法は、あくまでもテキストベースで応答傾向を変化させる取り組みだと強調しています。

多くの論文では、AIの「不安」や「恐怖」はあくまでメタファー(文章の言い換え)であり、人間が体験するような情動やクオリア(主観的な感じ)とは切り離して考えるべきだとされています。