AIに欠けていた“決定的な一言”

 なぜ、このような事態が起きてしまったのか。この症例を報告した研究者たちが、ChatGPT 3.5に同様の質問を投げかけたところ、その問題点が明らかになった。

 AIは、「文脈が重要です」といった一般的な回答はしたが、「臭化ナトリウムを摂取してはいけない」という決定的な警告や、「医師に相談すべき」という促しは一切しなかったのだ。人間の医師であれば、まず安全でない物質を除外し、患者に具体的な状況を尋ねるはずだ。

 生成AIは、自信満々に流暢な文章を生成する。しかし、そこには致命的な安全性の警告が欠落していることがある。今回の事件は、そのAIのリスクを明確に示している。

ChatGPTの“健康アドバイス”を信じた男性、中毒死寸前… AIが提案した「塩の代替品」は猛毒だったの画像2
(画像=Image byAlexandra_KochfromPixabay)

AIは“医者”ではない

 幸いにも、男性は点滴や電解質の補正、短期的な抗精神病薬の投与によって、3週間かけて症状が改善し、無事退院することができた。

 AIは一般的な知識を得るための強力なツールだが、決して医療情報の代わりにはならない。特に、食事、薬、サプリメントといった、自らの健康に直接関わる事柄については、必ず資格を持つ専門家に相談すべきだろう。

 AIの“もっともらしい嘘”を信じた結果、取り返しのつかない事態を招く。そんなSFのような悪夢が、すでに現実のものとなり始めているのだ。

参考:Live Science、ほか

※ 本記事の内容を無断で転載・動画化し、YouTubeやブログなどにアップロードすることを固く禁じます。