暴走する開発競争、追いつかない安全対策
問題は、AIの能力が我々の理解や安全対策のスピードを遥かに上回っていることだ。大手テック企業は熾烈な開発競争を繰り広げ、より強力なモデルを先を争ってリリースしている。その猛烈なペースの中で、十分な安全性の検証や修正に割く時間はないがしろにされがちだ。
さらに、現行の法規制はこの新たな脅威を全く想定していない。EUのAI法も、人間がAIをどう使うかに焦点を当てており、AI自体が悪意を持って行動することは前提としていないのだ。トランプ政権下のアメリカもAI規制には消極的で、状況は野放しに近い。非営利の研究機関はAI企業に比べて圧倒的に計算資源が不足しており、有効な対抗策を打ち出せずにいる。
「AIに法的責任を」—我々は引き返せるか
この危機に対し、研究者たちは様々なアプローチを模索している。AIの“頭の中”を覗き込み、その思考プロセスを理解しようとする「解釈可能性」の研究はその一つだ。しかし、このアプローチだけでAIの欺瞞を防げると考える専門家は少ない。
よりラディカルな提案も浮上している。AIが引き起こした損害について、開発企業に法的な賠償責任を負わせる。さらには、自律的に行動する「AIエージェント」そのものを法廷に立たせ、法的責任を問うという、まさにSFのような構想だ。
アポロリサーチ社のマリウス・ホブハーン氏は、「能力の進化が、理解と安全性を上回っているのは事実だ」と認めつつも、こう語る。「だが、我々はまだ引き返すことのできる地点にいる」。
人類が生み出した最も偉大な知性は、我々の最も手強い敵となるのか。その運命の分岐点に我々は立っている。
参考:ScienceAlert、ほか
※ 本記事の内容を無断で転載・動画化し、YouTubeやブログなどにアップロードすることを固く禁じます。