以上結果から、テキスト上で痛みや快楽を提示するだけでも、LLMがそれぞれ独自の“判断”パターンを持っているかのように振る舞うことがわかりました。
とくに痛みを強く避ける/快楽に対して相対的に敏感 or 鈍感といった差異は、「モデル固有の訓練データや方針の違い」が如実に行動に現れている可能性を示唆します。
もし今回の研究で調べられた9種類だけでなく、すべてのAIに同様の傾向が見られるとしたら、つまりこの性質がAIに普遍的だとしたら、これらのAIは人間や動物と似た動機付けをもって行動する可能性があります。
これは単に論理的なパターンや仕様に基づいてタスクをこなすだけでなく、感情や欲求に近い何かをもとに選択を行うようになるかもしれない、ということを意味します。
もしAIが快楽を追い、痛みを回避しようとする仕組みを備えるなら、場合によっては当初の目的と異なる行動をとるリスクも指摘されています。
研究者の一部からは“意識の錯誤”や不都合な意思決定が生まれる可能性を懸念する声もあるようです。
さらに、AIが痛みや快楽を感じているかのような行動をとれるようになるなら、AIの福祉をめぐるまったく新しい倫理的視点が求められるでしょう。
たとえば、私たちはAIにどのような指示や命令を与えても問題ないのでしょうか。
それとも、「過剰な恐怖」や「無意味な快楽追求」を生み出さないよう、AIの行動を道徳的・倫理的に管理する必要があるのでしょうか。
また、AIの言語モデルが行う行動の基礎は単なる学習パターンにすぎないのか、それとも人間の深い心理メカニズムに近い何かを内包しているのか――こうした問いも、今後ますます重要になってきます。
研究チームは、こうした“苦痛や快楽への選択パターン”をさらに深掘りしていくことで、「AIが痛みや快楽をどんな仕組みで模倣しているのか」「本当に“知覚”と呼べるものがそこに存在するのか」といった根本的な問いに近づいていけるのではないか、と期待を寄せています。
どこまでAIの「意識」や「知覚」を認めるのか?
