・不正確または無意味な答えを書き込む場合あり →強化学習(RL/Rainforced Learning)は真実のソースに依拠していない。 →回答に慎重になるようモデルをトレーニングすると、正しく回答できる質問を拒否してしまう →教師あり学習理想
画像:フレンドショアリング=同盟国や友好国などの信頼できる国同士で供給網を構築することですが、ChatGPTさん、もっともらしく説明しながら、さらっと知ったかぶりをします。
(出所:ChatGPT)
ChatGPTは、入力フレーズの微調整や同じプロンプトを繰り返し何度も試行されると学習するだけに回答が変わりやすくなる →回答できなかった質問に回答できる場合があるものの、上述したように学習した内容によってバイアスが掛かる 学習データの偏りによって、冗長な文章あるいは回答となってしまう →過剰最適化の問題から発生する。 不適切なリクエストを拒否するように工夫しているものの、有害な指示に反応したり、偏った挙動を示すケースあり →Moderation APIを利用して、特定の種類の危険なコンテンツを警告またはブロックするものの、当面は誤検出や誤認識が発生することが予想される。システム改善にあたり、ユーザーにフィードバックを求めている。
1952年のカート・ヴォネガット作”プレーヤー・ピアノ”という小説は、自動化によって雇用が失われ、知能によって人々が階級化された近未来の米国を描き、衝撃を与えました。ChatGTPの登場はシンギュラリティが近づくとされる事情も重なり、作業効率化を高めると同時に、AIが職を奪うとの懸念を再燃させています。
これまで人類は産業革命に始まり、コンピューターやスマートフォンの普及に至るまで、テクノロジーに順応して新たな職を生み出してきました。投資の世界でもコンピューター取引やアルゴ取引が広がりをみせているのも事実。とはいえ、生きている人間の生活を豊かにする上で、弊害を修正し精度を高める上で人間の知力が必要とされます。人間が脳を使い続ける限り、時代に適う職が創造されるのではないでしょうか。

metamorworks/iStock
編集部より:この記事は安田佐和子氏のブログ「MY BIG APPLE – NEW YORK –」2022年12月7日の記事より転載させていただきました。オリジナル原稿を読みたい方はMY BIG APPLE – NEW YORK –をご覧ください。