チャットGPTを使っている人は気が付いたこともあると思いますが、結構間違いがあるのです。そこで間違いをチャットGPTに指摘すると「申し訳ございません」と素直に誤りを認めます。例えば先日、司馬遼太郎の作品についてチャットしていたら作品に「草枕」が出てきたのでそれは夏目漱石ではないかと指摘したところ、「申し訳ございません」と言って以降、修正されました。しかし、これは私が間違いだと分かったからよいのです。わからない人がそうなんだ、と信じ込んだら今度はAIに司馬遼太郎の「草枕」と覚え込ませるかもしれません。

そうすると何が正しいかわからなくなるのです。

そもそもデータのベースが何か、ということに因るわけですから中国で同様のサービスがあった場合、ビックデータのベースが違う訳ですから、かなり違う答えが返ってくるのでしょう。つまり答えに普遍性がない訳です。そもそも普遍性ある答えが得られるものと得られないものがあります。自然科学の基本は論理の積み上げですが、社会科学は100%断言できる答えはないに等しいのです。それなのにチャットGPTが出てくる答えをその拠り所にするようになれば社会にゆがみが出るのは確実なわけです。

もう一つは物事を知ることに手間暇をかけないことが果たして人類に幸せを提供するのだろうか、という疑問です。

我々の世代は物事を調べるのに書籍を購入し、マーカーで印をつけて繰り返し読むことで覚えました。これはカラダで覚えるというスタイルに近いです。私の小学生時代、先生が出す質問に対して出来た生徒から座ってよいというのがたまにあり、最後まで残った生徒は恥をかかせられる、だから頑張るというムチある教育があったのですが、今そんなことしたら大問題になるのでしょう。

つまり心地よい世界がどんどん生まれることに「それは良いことだ、もっと利用すればよい」という技術の進歩を享受する一方で自分の存在は何だろうという疑念を持つ結果が生まれると思うのです。

「私は何のために生きているのだろう?仕事では機械の指示通りに作業をし、必要なことはGPTが教えてくれる。面倒なことは自分でやらなくてもお金さえ払えば誰かにお願いできる。でもそれならば自分は何のためにこの世界で生をもらったのだろう?」という疑問は当然生まれるはずなのです。誰のためにもならない、誰とも接しない人生をどうやって肯定するのだろうという帰着は当然あり得るのです。

極端かもしれませんが、これが怖いのです。以前から指摘しているように人間は高い潜在能力を備え、その極大能力はどこまで伸びるのかわかりません。なぜなら人間は脳みそのせいぜい10%しか使っていないのでは、とされるほど余力があります。運動選手が各種大会やオリンピックで世界記録を次々塗り替えるのは潜在能力をよりうまく引き出す方法を見出したからです。それなのにそれをしなくてもAIが解決するという選択肢ができることで潜在性を否定する結果にすらなりえるのです。

チャットGPTが遠くないうちに全世界で使用禁止ないし、使用制限がかかる日が来てもおかしくないと思います。それは便利を超えて人間社会に強烈な亀裂をもたらす悪魔にすらなりえる恐怖があるからです。もしも人類がそこに踏み込めば先日のシンギュラリティはそう簡単に来なくなるでしょう。いや、もしかしたらシンギュラリティ到来こそ人類に壊滅的なダメージを与える日なのかもしれません。

では今日はこのぐらいで。

編集部より:この記事は岡本裕明氏のブログ「外から見る日本、見られる日本人」2023年4月3日の記事より転載させていただきました。