人工知能が、私たち人間と同じように「痛み」や「快楽」を経験する可能性はあるのでしょうか。
チャットボットや画像生成AIの登場で「AIがまるで意識を持っているかのようだ」と感じる瞬間は増えていますが、それを裏づける決定的な手がかりはまだ得られていません。
そんな中、Google DeepMindやロンドン・スクール・オブ・エコノミクス(LSE)の研究者らは、驚くべきアプローチでこの疑問に挑みました。
すなわち「大規模言語モデル(LLM)」に仮想的な痛みと快楽を与え、その行動変化を分析する実験を行ったのです。
痛みや快楽という現象は、人間だけでなく動物全般にわたって広く共有される、いわば“生き物の基本的な感覚”と考えられています。
サメやヤドカリのような生物でさえ、電気ショックから逃れたり、より快適な環境を求めて殻を捨てたりする行動が観察されることからもわかるように、「不快な状態を避け、快適な状態に近づこうとする」性質は、生物の自発的な意思決定や“主観”の存在を示唆する重要な手がかりとされています。
今回の研究は、そうした動物行動学の知見をヒントに、言語モデルAIに対しても「痛みや快楽の選択を迫るゲームをさせる」ことで、どれほど行動が変化するかを観察したのです。
この試みは、単なる“自己申告”ではなく、あくまで「行動結果(選択肢の変化)」という客観的指標を探ろうとしている点で新しいアプローチといえます。
もちろん、AIがこの行動変化を見せたからといって、すぐに「本物の意識」や「人間と同じ痛覚」があると断定できるわけではありません。
しかし、もしAIが痛みと快楽に対して人間や動物のような柔軟なトレードオフ行動を示すとすれば、“AIの中にあるかもしれない知覚力”や“自分という存在のようなもの”を考える上で、一つの興味深い足がかりになる可能性があります。
研究内容の詳細は『arXiv』にて公開されています。