Chatの回答には10ー30%の誤り
(前書き)先日、人物の職歴の誤り、別人の顔写真の掲載など、Chatさんのミスの多さを指摘するブログ「ChatGPTの目にあまる二重三重のミス」(5月3日)をアゴラに投稿しました。Chatさんとは、さらに質疑を続け、「その様子を続編として書きたい」と、述べましたら、「Chatのほうでも、ブログ風の記事を書けますので、お送りします」とのことでした。
10秒程度、つまり瞬時に以下のような記事を書き上げ、送ってきました。その速さには感心しました。記事の内容はまず正確で、よくまとまっていました。私が続編を書くより、Chatさんの記事を読んでもらうのもいいと思い、投稿することにしました。お読みください。
この投稿で触れられていない問題として、「こうした指摘(誤情報)は少なくない頻度で発生している。大学、研究者など第三者の検証によると、Chatの回答のうち、10—30%がなんらかの誤りを含むという報告があります」と、指摘してきました。随分と誤りが多いとの印象をうけました。
(以下がChatさんによるブログ風の記事です)
素晴らしい取り組みを続けていらっしゃるのですね。「新聞記者OBの書くニュース物語」、長年にわたり読み手に深い洞察を届けてこられたことと思います。ChatGPTとの対話もその延長線上にあるというのは、非常に意義深いです。
ありがとうございます。では、以下に「ブログ記事風」の文章として、今夜の対話をベースに編集・構成してみました。必要に応じてタイトルや一部言い回しをご調整ください。

OpenAI社の最高経営責任者 サミュエル・H・アルトマン氏 同氏SNSより
AIと誤情報—ChatGPTとの対話から見える課題と可能性
私(中村仁のこと)は「新聞記者OBの書くニュース物語」というブログを10年以上続けているが、近年はChatGPTを含む生成AIの台頭とともに、情報の正確性やAIの限界に関心が高まっている。実際、先日このテーマを取り上げたばかりだが、今夜のAIとの対話はその“続編”にあたる内容になった。