しかし、その研究はまだ手法の提案が主な目的で、「AIが実際に人間に近い社会的スキルを獲得した」とは結論づけていませんでした。

今回の研究チームは、そうした過去の研究を踏まえつつ、より現実的な人狼ゲームの設定を導入して、AIの「社会的知能」を具体的に数値化しようとしました。

その結果、GPT-5というAIが、驚くほど人間らしく「騙す」ことや「見破る」ことができることをはっきりと示しました。

とはいえ、この研究の結果を過剰に解釈することには注意が必要です。

確かにGPT-5は非常に高い勝率を記録しましたが、それはあくまで研究チームが設定した特定の条件下での結果です。

例えば、試合数や参加AIの数が限定されており、また、もともと人狼ゲームを比較的得意としているAIばかりが選ばれていました。

ですから、今回最下位だったモデルが「性能が低いAI」であるとは必ずしも言えないのです。

また、異なる設定やより複雑な状況で再び実験を行った場合でも、GPT-5が同じように勝ち続けられるかどうかは慎重に見極める必要があります。

さらに、この研究では、AIが持つ「倫理的な判断力」や「相手の気持ちに共感する力」については触れていません。

つまり、「嘘をうまくつける」ことは、AIが実際に社会で人と共に働いたり、意思決定に関わったりする場合に、必ずしも好ましいこととは限らないのです。

AIが人間の社会に溶け込むためには、単に人間らしい能力を持つだけでなく、それを適切に使える倫理や安全性についても考える必要があります。

例えば、「人を騙す能力」が優れているAIが、現実の社会でビジネス交渉や意思決定に利用される場合、私たちはそれを許容するのか、それとも制限するのか、といった新たな問題が浮かび上がるでしょう。

この研究チーム自身も、今回の結果はあくまでも「最初の一歩」として捉えています。

今後はAIモデルの種類や数を増やしたり、ゲームのルールやプレイヤーの構成をより多様にしたりして、より詳しくAIの社会的知能を調べる予定です。