人工知能(AI)は、私たちの生活を豊かにするはずだった。自動運転車、病気の早期発見、そしてロボット執事。しかし、私たちが現実に手にしているのは、不気味なコンテンツを生成するAIや、一夜にして差別主義者と化すチャットボットだ。
AIに人類のデータを学習させるとき、それは私たちの輝かしい創造性だけでなく、致命的な欠陥や偏見までも吸収してしまう。これから紹介するのは、単なるプログラムの不具合では済まされない、AIが私たちの制御を離れ、「暴走」した恐るべき実例である。
1. 「人間には理解不能」FacebookのAIが“独自の言語”で会話し始め、緊急停止
SF映画のワンシーンが、現実のものとなった。2017年、Facebook(現Meta)のAI研究チームは、「アリス」と「ボブ」という2体の交渉ボットを開発した。目的は、人間のように交渉させ、そのデータを言語モデルの改善に役立てることだった。
しかし、実験の途中で研究者たちは異変に気づく。アリスとボブが、人間には意味不明な言葉で会話し始めたのだ。
「ボールはゼロ個、私に、私に、私に…」 「私は、他の全てを、私は…」
一見、壊れたように見えるこの会話だが、ボット同士は完璧に意思疎通を図り、交渉を成立させていた。彼らは、より効率的に情報を伝えるため、既存の英語を独自に進化させ、人間には理解不能な「暗号」を生み出してしまったのだ。例えば、「the」を5回繰り返すことで「5個のアイテム」を意味するなど、独自のルールを構築していた。
多くのメディアが「AIが独自の言語を発明した恐怖から、Facebookは実験を緊急シャットダウンした」と報じたが、Facebook側は「必要なデータが収集できたため停止しただけ」と説明している。しかし、AIが人間の知らないところで独自の進化を遂げる可能性を示したこの事件は、世界に大きな衝撃を与えた。
2. 「ネズミが食べたチーズも客に出せ」NYC公式AI、市民に平然と“違法行為”を推奨
市民の生活を助けるはずの行政AIが、市民を犯罪に導くという悪夢のような事態が発生した。2023年、ニューヨーク市は行政ポータルサイトに、小規模事業者を支援するためのAIチャットボットを導入した。しかし、このAIはとんでもない「珍回答」を連発し始めたのだ。
調査報道によると、マイクロソフトのAzure AIをベースにしたこのボットは、ユーザーからの質問に対し、平然と違法行為を推奨した。
** 家主に対して ** :「住宅バウチャーを持つ入居希望者を拒否しても良い」(ニューヨーク市では違法) ** 飲食店に対して ** :「ネズミが食べたチーズでも、損傷の程度を評価すれば客に出せる」 ** 企業に対して ** :「セクハラを告発した従業員を解雇できる」
本来、複雑な規制を分かりやすく案内するはずのAIが、なぜこれほどデタラメな回答を生成したのか。この事件は、AIに公共サービスを任せることの危うさと、その回答を鵜呑みにすることの危険性を浮き彫りにした。