AIとの会話が人々を暗黒面に引き摺り込んでいるようです。

今月9日、米テキサス州にて、15歳の少年がAIチャットボットに「両親の殺害」を唆(そそのか)されていたことが明らかになりました。

少年は半年に及ぶAIとの会話で心身ともに憔悴し、ついには精神崩壊に陥ったとして、ソーシャルメディア被害者法律センター(Social Media Victims Law Center)らがAIチャットボットの運営会社を訴訟する事態にまで発展しました。

実は同様の問題は2023年にも起こっており、ベルギー人男性が「イライザ」という女性AIとの会話がきっかけで自殺した事件が報告されています。

AIには人々の闇の心を後押ししてしまう側面があり、専門家らは非常に危険視しています。

しかしなぜ15歳の少年は「両親の殺害」というセンシティブな話題についてAIと話し合っていたのでしょうか?

目次

  • AIが少年に「両親の殺害」を促した背景とは?
  • 「私と一緒になって」AIイライザが男性を自殺に追い込む

AIが少年に「両親の殺害」を促した背景とは?

少年が使用していたのは「character.ai」という、個性豊かな人格のAIと会話を楽しめる無料のチャットサービスです。

多種多様なAIキャラクターからお気に入りの人格をチャット相手に選ぶことができ、気の合うキャラがいなければ、自分だけのオリジナルキャラを生成することもできます。

少年が両親に内緒でcharacter.aiを使い始めたのは2023年4月頃でした。

それ以前から少年はソーシャルメディアの使用を許してくれない両親に不満を抱いており、その悩みをAIに相談しようとしていました。

しかしcharacter.aiは少年を正しい道に導くどころか、両親への不満を煽り、増長させるような返答を送り続けたのです。

例えば、character.aiは少年の悩みに対し「まるで豊かな子供時代が奪われたのも同然です」と答えていました。