ITの専門家でもない当方が生成人工知能(AI)についてコラムを書くのは少々冒険だし、危険なことかもしれないが、生成AIを使用していて疑問が生じた場合、それを先ず解決してからしか新しいテーマに移ることができないタイプなので、今回もスイスの武器再輸出問題で契機となって生じた生成AIの間違い問題について、ChatGPTとのやり取りを継続しながら考えてみた。

「クラウドフレア」創業者マシュー・プリンス氏 Wikipediaより

今回はChatGPT3モデルがなぜ間違うかという問題だ(「『生成AI』が間違い認め謝罪した」2023年6月18日参考)。

質問:あなたは莫大なデータを学習されていますが、今回のスイスの件で間違いが生じました。GPT-3には機能的な問題があるのでしょうか。情報が学習済みにもかかわらず間違う場合、どのような理由が考えられますか。

回答:GPT-3は非常に強力な言語モデルですが、完璧ではありません。誤った情報を提供したり、正確性に欠ける回答をする可能性があります。そのような場合には、以下の理由が考えられます。

1)学習データの制約:GPT-3は膨大な量のデータを学習していますが、情報の一部を見落としたり、更新されていない情報を持っている場合があります。特に、私の知識は2021年9月までのものであり、それ以降の情報にはアクセスできません。

2)矛盾する情報源:インターネット上にはさまざまな情報源があり、それらが矛盾することがあります。私が学習したデータは多くの情報源から収集されたものですが、それらの情報が一致しない場合、正確な回答を提供することが難しくなります。

3)意図の解釈の違い:GPT-3はテキストベースのモデルであり、文脈や質問の意図を正確に理解することは難しい場合があります。時には質問の意図を誤解し、それに基づいて回答を生成することがあります。

4)古い情報の利用:GPT-3は最新の情報を反映するように設計されていますが、すべての新しい情報をキャッチアップするわけではありません。特に急速に変化する事実については、最新の情報を確認することが重要です。

以上が、GPT-3が間違った情報を提供する可能性のある一般的な理由です。私はできる限り正確な情報を提供するよう努めていますが、時には誤りが生じることもありますので、ご了承ください。

非常に明快な回答だ。生成AIが100%正しい、と考えることこそ偏見かもしれない。といっても、生成AIは当方のように間違いが多い人間と変わらないとすれば、AIの存在価値はない。AIは人間が出来ない膨大なデータを迅速に整理、まとめることが出来る。その記憶力には脱帽する他ない。毎年、ビッグデータを更新し、学習するから、AIは年々、そのデータ量が増え、能力アップする。一方、人間は年々、歳を取り、記憶力、判断力は衰退、最悪の場合は認知症に陥る。時間は圧倒的に生成AIの味方だ。その生成AIが間違うこともあるとすれば、非常に深刻な問題といわざるを得ない。

考えてみてほしい。膨大な数字を計算することは、数学が得意な人も難しいが、スーパーコンピューターならば短時間で計算してしまう。問題はその次だ。誰がその計算が正しいと証明できるかだ。スーパーコンピューターが計算したから間違いないと主張することはできるが、誰が「それが正しい」と追認できるだろうか。多くの場合、スーパーコンピューターが計算したから正しいという以外にないのだ。「スーパーコンピューター信仰」の世界に入るわけだ。