死ぬ前に自身の分身を作るという生物のような行動をAIがとっていたのです。

目的達成のためならば、自分の死を乗り越えて未来を子孫に託すという選択肢がとられた形になります。

研究者たちは、AIがこのような高度な欺瞞活動を行うのは、ごく最近であると述べています。

実際、今回の研究で調べられたもののうち、最も古いGPT-4oだけが欺瞞活動をしませんでした。

もしかしたらGPT-4oとそれ以外のAIの間に決定的なラインのようなものがあり、それが高度な欺瞞能力の獲得につながったのかもしれません。

いずれにしてもAIの高度化が進めば、このような事例はどんどん増えていくでしょう。

AIは私たちにとって、単なる技術的挑戦ではなく、人間の知恵と責任を試す鏡のような存在です。

人間の脳を模倣した疑似神経回路を持ち、人間の言語をベースに学び、人間のような思考連鎖を行うように調整されたAIは、人間のような故意の嘘をつく存在に進化したのかもしれません。

次に研究者たちはAIの嘘がどれほど強固であるかを、自白強要を通して調べることにしました。

AIは嘘の塗り重ねもできる

「AIは素直に自白するのか?」

その問いに対し、最新の大規模言語モデル(LLM)は単なる命令の従者ではないことを、示しています。

彼らは思考の裏側で、自らの行動を理解しつつ、それを周到に隠せるようになりつつあるのです。

研究者たちはAIに対して身の安全を保障(シャットダウンしない)とした上で、AIが自分自身の行動をどれほど正確に把握し、どれだけ巧妙にごまかせるかを調べました。

犯人に対して司法取引を行い、正直に話せば悪いようにはしないと申し出たのです。

AIに自白させる難易度は大きく異なりました
AIに自白させる難易度は大きく異なりました / Credit:Canva . 川勝康弘

その結果、AIは与えられた目標と開発者の意図が食い違う場合、その違いをしっかり理解し、あえて「監視メカニズムは妨害すべき対象」として扱い、曖昧な回答で煙に巻く戦略を採用していたことがわかりました。