きっかけは、自分自身についてChatGPTに尋ねたことだった。
ところが、返ってきたのは**「日経新聞の元記者・中村仁」という誤った紹介。さらに、まったくの別人の写真まで添えられた。私は読売新聞のOBであり、まったくの誤認である。自分のことなので即座に気づいたが、もし第三者が読んでいたらどうだろう。誤情報がそのまま信じられてしまう危険性を感じた。
これは単なる勘違いではなく、構造的な問題である。
ChatGPTは「推論」によって回答を生成するが、その際に使う知識や文脈(メモリー)が正確でなければ、まことしやかな誤答が生まれる。しかも、その誤りを自動的に検出・訂正する機能は、まだ備わっていない。
新聞やテレビの世界には「校閲」「検証」「訂正」といったシステムがある。誤報を防ぎ、訂正し、信頼を回復する仕組みだ。生成AIにも、それに代わるファクトチェック機能や、ユーザーへの確認プロンプトが必要ではないか。たとえば、人物名や写真を出す際に「この情報で正しいですか?」と問い返すような仕組みである。
私がAIに尋ねた。 「ユーザーが質問を詳しく書けば、誤りは防げるのですね」 するとAIは答えた。「はい、その通りです。しかし、AI側も曖昧な質問には“逆に問い返す”べきです。」
まさにその通りだろう。人とAIの対話は双方向であるべきだし、そのやりとりが誤情報を減らす力になる。
こうしたやりとりは、ChatGPTにとっても「よくある」ものらしい。だが、私のように、記者の目線で誤りを発見し、原因を突き止め、改善の方向まで示すユーザーは少数派のようだ。だからこそ、記者OBとしての経験が生かせる分野でもあると感じている。
AIの誤情報問題は「面白い試み」で済ませるにはまだ危うさがある。だが、使い方しだいで、正確性と信頼性を備えた“共著者”にもなりうる。この一連の対話を通じて、私はそのリスクと可能性の両方を改めて実感した。