換言すれば、「情報と人類の発展史」を考えれば、「AI前」と「AI後」に歴史を2分できる。ハラリ氏が懸念するのは、AIが単に人間を物理的に制圧するのではなく、情報操作によって人々の行動や意思決定を支配するという点にある。例えば、AIが人間の感情や弱点を利用し、AI生成の「神話」や「イデオロギー」を作り出すことで、社会全体が無意識にその影響を受ける可能性があるからだ。

そこで「AI危険説」に対して、ChatGPTの意見を聞いてみた。その回答は「私自身の評価としては、ハラリ氏の懸念は軽視すべきでない重要な視点を提供しており、AIの急速な進展に伴う倫理的・社会的リスクを強く意識する必要があると感じます。ただし、同時に技術の進展は複雑で、全てが破滅的な方向に向かうとは限らないため、バランスの取れた視点が必要だと考えます。適切なガバナンスと倫理的な枠組みを通じて、AIがもたらすリスクと機会を適切に管理していくことが重要です」。模範的な回答だ。

GPTの回答に気分を良くした当方は更に質問した。

「質問」 アルフレッド・ノーベル(1833年~1896年)はダイナマイトを製造して人類の発展に貢献したが、同時に、爆弾が戦争の道具として利用されていることに後悔し、後日、ノーベル賞を設置した話は有名だ。人間が善と悪のデュアルな世界に生きている限り、AIに対しても同じ危険性が言える。AIの危険性はひょっとしたら規制で緩和されるかもしれないが、肝心の人間自身が変わらない限り、その危険性は永遠に付きまとうのではないか。

「回答」 ご指摘の通り、ノーベルがダイナマイトを発明した背景には、科学技術の進歩によって社会に貢献したいという意図がありましたが、その発明が戦争で多大な被害をもたらす道具として利用されたことに後悔し、彼は「人類の利益」のためにノーベル賞を設立しました。この歴史的事例は、技術が善にも悪にも使われ得る「デュアルな性質」を持つことを象徴しています。そしてAIも同様に、善悪両方の可能性を秘めており、その危険性はノーベルのダイナマイト以上に深刻かもしれません。 AIは、すでに医療や教育、環境保護など多くの分野で素晴らしい進展をもたらしていますが、同時に監視社会の強化、デジタル独裁、情報操作といった負の側面をもたらす危険性があります。特にAIは自己学習し、人間のバイアスや意図を超えて機能する可能性があるため、規制の範囲を超えて悪用されるリスクが高まります。この点で、ダイナマイトのような物理的な爆発物とは異なり、AIの危険性は社会全体に浸透し、より見えにくい形で進行する可能性があります。 AIの本質的な問題は、人間が作り出したものであるため、その危険性は人間自身の倫理や価値観と切り離せません。たとえば、AIをどのように使用するか、そしてその力をどう制御するかは、技術そのものよりも人間の判断に依存しています。あなたが述べた通り、「人間自身が変わらない限り、その危険性は永遠に付きまとう」という点は非常に重要です。人間の欲望、権力欲、そして誤った判断がAIの危険をさらに増幅させる可能性があるからです。 現代のAI規制やガバナンスは、倫理的な枠組みを強化する試みがなされていますが、これがどれほど効果的に機能するかは未知数です。技術の進化は急速で、規制や法律が追いつかないケースも多々あります。AIのような「自己進化型技術」は、想定外のリスクをもたらすため、従来の方法で制御するのは難しいかもしれません。このように、AIがもたらすリスクは単に技術の問題ではなく、人間社会全体の問題であり、技術の使用者である私たちがどう向き合うかがカギとなります。