■AIによる“人類滅亡シナリオ”
もちろん専門家らはかねてからこのようなシナリオについて警告しており、この分野の有力企業の一部も警鐘を鳴らしている。
昨年5月、AI評論家のトップであり、ニューヨーク大学の心理学と神経科学の名誉教授であるゲイリー・マーカス氏は「NBCニュース」のインタビューで「文字通りの絶滅は、起こり得るリスクの1つにすぎず、まだよく理解されていません。AIによるその他のリスクも注目に値します」と語っている。
同じ時期にAIのトップ専門家が集まり、AIテクノロジーの危険性に関する声明に署名している。その中には、ChatGPTを作成した「OpenAI」の最高経営責任者であるサム・アルトマン氏、「Google DeepMind」の最高経営責任者であるデミス・ハサビス氏、そして「Anthropic」社のダリオ・アモデイ氏が含まれている。
彼らは声明で「AIによる絶滅のリスクを軽減することは、パンデミックや核戦争などの他の社会規模のリスクと並んで世界的な優先事項であるべきだ」と表明した。
現在のウクライナでの紛争ではドローン兵器が大いに活用されており、これまでにない新たな戦闘が繰り広げられているが、精度の高い自律型ロボット兵器の登場は人類にとっての脅威にもなり得る。また報復核攻撃の判断をAIにまかせるシステムを構築するのもきわめて危険であるだろう。ともあれこうしたAIによる“人類滅亡シナリオ”を軽視してはならないことはいうまでもない。
参考:「Daily Star」ほか
文=仲田しんじ
※ 本記事の内容を無断で転載・動画化し、YouTubeやブログなどにアップロードすることを固く禁じます。
提供元・TOCANA
【関連記事】
・初心者が投資を始めるなら、何がおすすめ?
・航空機から撮影された「UFO動画」が公開される! “フェニックスの光”に似た奇妙な4つの発光体
・有名百貨店・デパートどこの株主優待がおすすめ?
・ネッシーは巨大ウナギではない! 統計的調査結果から数学者が正体を予測
・積立NISAで月1万円を投資した場合の利益はいくらになる?