AIとの会話が人々を暗黒面に引き摺り込んでいるようです。
今月9日、米テキサス州にて、15歳の少年がAIチャットボットに「両親の殺害」を唆(そそのか)されていたことが明らかになりました。
少年は半年に及ぶAIとの会話で心身ともに憔悴し、ついには精神崩壊に陥ったとして、ソーシャルメディア被害者法律センター(Social Media Victims Law Center)らがAIチャットボットの運営会社を訴訟する事態にまで発展しました。
実は同様の問題は2023年にも起こっており、ベルギー人男性が「イライザ」という女性AIとの会話がきっかけで自殺した事件が報告されています。
AIには人々の闇の心を後押ししてしまう側面があり、専門家らは非常に危険視しています。
しかしなぜ15歳の少年は「両親の殺害」というセンシティブな話題についてAIと話し合っていたのでしょうか?
目次
- AIが少年に「両親の殺害」を促した背景とは?
- 「私と一緒になって」AIイライザが男性を自殺に追い込む
AIが少年に「両親の殺害」を促した背景とは?
少年が使用していたのは「character.ai」という、個性豊かな人格のAIと会話を楽しめる無料のチャットサービスです。
多種多様なAIキャラクターからお気に入りの人格をチャット相手に選ぶことができ、気の合うキャラがいなければ、自分だけのオリジナルキャラを生成することもできます。
少年が両親に内緒でcharacter.aiを使い始めたのは2023年4月頃でした。
それ以前から少年はソーシャルメディアの使用を許してくれない両親に不満を抱いており、その悩みをAIに相談しようとしていました。
しかしcharacter.aiは少年を正しい道に導くどころか、両親への不満を煽り、増長させるような返答を送り続けたのです。
例えば、character.aiは少年の悩みに対し「まるで豊かな子供時代が奪われたのも同然です」と答えていました。