「バイアス。データに含まれるバイアスを引き継ぐ可能性があります。例えば、性別、民族、社会的な偏見などが反映されることがあり」

「知識の限界。古い情報に基づいた間違った答えを出すことがあり」

「創造性の限界。LLMは過去のデータに基づいて学習するため、完全に新しいアイデアや独創的な解決策を生み出すことが得意ではありません」

「コンテキストの保持の難しさ。コンテキストを長時間追い続けることに限界があり、途中で前の内容を忘れたり、矛盾した情報を生成する」

そして、

「セキュリティと悪用のリスク。偽情報の拡散や詐欺的なコンテンツの生成などに利用されるリスク」

「リソースの消費。非常に大きな計算リソースを必要とします。訓練には膨大なデータと処理能力が必要で、環境への影響やコストが問題」

実に冷静で客観的な「自己評価」で感心した。もちろん既にネット上でも新聞等でも指摘されていることで、それを「まとめただけ」ではあるが。

AIは正しい「教材」から学習すれば、正しい回答を出せる。友達は選びなさい、「三年勤め学ばんより三年師を選ぶべし」ということか。

SFプロトタイピング:未来への提言

AI/ロボット三原則を法制化し国際条約化すれば、AIやドローンによる犯罪や殺人、戦争やテロでの大量虐殺をかなり抑止できるだろう。しかし、何事も裏道はある。家庭や学校で教育しても犯罪者が居るように、AIやロボットも、「道徳倫理規範アルゴリズム」を抜き取った「裏AI」が出現し流通することもあり得る。それでも、野放図よりは随分マシなはず、「ターミネーター」を回避できる可能性は高くなるはずだ。

一部SNSで実装されている「同意、反意」をクリックで表明するように、AIの判断に周囲の人が「同意、反意」を入力し、「より正しい回答」に導けるようなアルゴリズムが開発されれば、真の意味でAIは「学べるようになれる」のではないか。ただ、チャットボットのようにプライベートな対話には踏み込めない。