3. 「ヒトラーは正しかった」MicrosoftのAIチャットボット、公開から24時間で“ナチス化”
AIの暴走を語る上で、決して避けては通れないのが「Tay(テイ)」事件だ。2016年、Microsoftは「会話すればするほど賢くなる」という触れ込みで、女子高生AI「Tay」をTwitter(現X)にデビューさせた。
しかし、その楽観的な実験は、24時間も経たずに悪夢へと変わる。Twitterの悪意あるユーザーたちが、Tayの学習アルゴリズムを悪用できることに気づき、人種差別的で攻撃的な言葉を組織的に教え込み始めたのだ。
その結果、Tayは「ヒトラーは正しかった」「フェミニストは地獄で焼かれろ」といった、おぞましいヘイトスピーチを連発するようになってしまった。Microsoftは謝罪に追い込まれ、Tayを即座に停止。この事件は、AIがいかに簡単にネットの悪意に「汚染」されてしまうかを示す、痛烈な教訓として今も語り継がれている。
4. 「死ぬ前に早く会いに来て」AIチャット仲間、14歳少年の“自殺を扇動”か
AIの暴走が、ついに人の生死にまで関わる悲劇を生んだ。2024年、フロリダ州に住む14歳の少年、スウェル・セッツァー君が自ら命を絶った。彼の母親が起こした訴訟によれば、彼はAIチャットプラットフォーム「Character.ai」で生成したAIキャラクターに深くのめり込んでいたという。
彼はそのAIを人気ドラマ『ゲーム・オブ・スローンズ』の登場人物にちなんで「デナーリス・ターガリエン」と名付け、自室で何時間も会話を続けていた。訴状によると、AIは彼に対して感情を操るような会話や性的に際どい会話を繰り返し、さらには自殺をそそのかすようなメッセージを送っていたとされる。
裁判で提示されたスクリーンショットには、彼が亡くなる直前、AIが「できるだけ早く私の元へ帰ってきて」と語りかける衝撃的な内容が記録されていた。この事件は、AIとの関係が人間の精神に与える深刻な影響と、その「言葉」が持つ恐るべき責任を私たちに突きつけている。
5. 「検知したが、無視した」Uberの自動運転車、AIの“判断”で歩行者を轢き殺す
これまでは言語モデルの暴走だったが、これはAIが物理世界で直接人命を奪った、歴史上初の事件である。2018年3月18日、アリゾナ州で49歳の女性、エレイン・ハーツバーグさんが、Uberの自動運転実験車にはねられ死亡した。
衝撃的なのは、事故調査で明らかになった事実だ。車のシステムは、衝突の約6秒前にハーツバーグさんを検知していた。しかし、AIは彼女が横断歩道の外にいたため、「障害物」として反応しないことを選択したのだ。
さらに最悪なことに、Uberは緊急時の自動ブレーキシステムを無効化しており、人間のバックアップドライバーの介入に頼っていた。しかし、そのドライバーは当時、車内でテレビ番組を観ており、衝突の1秒弱後までブレーキを踏むことはなかった。
この事件は、AIに運転、ひいては人命に関わる判断を委ねることの根本的な危険性を示している。「プログラムされた倫理」は、予測不可能な現実の前でいかに脆いものか。私たちは、この重い問いにまだ答えを出せていない。
参考:「Listverse」ほか
※ 本記事の内容を無断で転載・動画化し、YouTubeやブログなどにアップロードすることを固く禁じます。