もしAIが特定の文化や社会背景のデータだけを学んでしまったら、その偏りがAIの意思決定予測にも反映される可能性があります。

こうしたバイアスを避けるためには、より多様な文化や背景を持つ参加者のデータを収集することが今後の重要な課題となるでしょう。

さらに、ケンタウルのような技術が実際に社会で使われる際の倫理的な問題も無視できません。

もしAIが私たちの行動や好みを高精度で予測できるようになると、企業や組織が人々の行動を操作したり誘導したりするリスクが高まります。

すでにSNSやオンライン広告などで行われているユーザー行動の予測や誘導がさらに巧妙化し、私たちの自由な選択を狭めてしまうかもしれません。

ケンタウルの研究チームがモデルやデータセットを広く公開していることは、こうした透明性や倫理的な問題について社会全体で議論するための重要な一歩だと言えます。

実際に研究チームは、公的な研究環境だからこそ「産業界では焦点が当たりにくい基本的な認知の問いを追求する自由がある」と述べ、産業界とは異なる立場で慎重に研究を進めていく意義を強調しています。

AIが私たち人間の「心」の複雑さに近づくにつれて、私たちは新しい可能性と同時に、新しい責任や倫理的な課題とも向き合わなければなりません。

ケンタウルが開けた新たな扉の先には、人間の理解や社会の豊かさを広げる可能性がある一方で、注意深く取り扱わなければならない課題や危険性も潜んでいるのです。

私たちは果たして、この新しい時代の「AIと人間の共存」をどのようにデザインし、どのようにコントロールしていけばよいのでしょうか?

全ての画像を見る

元論文

A foundation model to predict and capture human cognition
https://doi.org/10.1038/s41586-025-09215-4

ライター

川勝康弘: ナゾロジー副編集長。 大学で研究生活を送ること10年と少し。 小説家としての活動履歴あり。 専門は生物学ですが、量子力学・社会学・医学・薬学なども担当します。 日々の記事作成は可能な限り、一次資料たる論文を元にするよう心がけています。 夢は最新科学をまとめて小学生用に本にすること。