特に焦点になったのは、「単にデータや計算資源を増やす方法で、どこまで“人間らしさ”に近づけるか」という問いです。

結果として、約76%が「その可能性は低い」と答え、大多数が拡大路線のみに頼る方法に懐疑的であることがわかりました。

また、「世間のイメージと実際のAI性能がどれほど乖離しているか」については、回答者の約80%が「実際よりも高く評価されすぎている」と感じていたのです。

特に大規模化したモデルは、文章や画像など特定分野ではすぐれた精度を示す反面、推論や常識的な判断が必要な場面では不安定だという声が多く上がりました。

たとえば文章応答モデルにおける「幻覚」現象――裏付けのない回答を本当のように作り出す――がその一例です。

もちろん最新モデルには対策も検討されているものの、こうした問題は「データ内のパターンを拾う」だけでは十分に解決しきれないという指摘が主流でした。

さらに「世界の知識をどう蓄え、状況に応じて取り出すか」も大きな課題とされます。

人間は幼児期から五感を通じて得た体験や文脈を総合的に扱うため、実環境とどう関わるかが知能の根幹になるという見方が強いのです。

文字・画像データを膨大に集めるだけで、因果や動機づけなどの深い理解まで獲得できるわけではないのでは、といった疑念が多くの研究者から挙がっています。

実際、ロボットが環境を操作しながらデータを得る研究は、大規模モデルとは異なる学習効果を示す例として注目を集めています。

たとえばアーム型ロボットで物体を押したり持ち上げたりしている実験では、行動と結果との対応を自らのセンサー情報から学びとることで、いわゆる“因果を推定する”ような処理が促されるという報告があるのです。

これは単なるデータ拡大とは異なるアプローチで、「行動→結果」を身をもって獲得している点が特徴とされています。

これらの意見はAGIが誕生するには規模拡大だけでなくAIに「肉体」を与えなければならない可能性を示しています。