人間が用意するデータはそもそも偏りがあり得る。間違った情報や悪意でゆがめられた情報から学べば「出力」であるAIの回答もおかしくなる。小説データや事件記事から学べば、現実離れした回答、行動を促したり、事件につながる言動となり得る。
AIに欠けるもの:善悪の判断力問題は、AIは「思考しているわけではない」そして「善悪判断できない、善悪を知らない」「自分は何も経験していない」ことだ。
人間なら子供のうちに善悪を教えられる。人を殺してはいけない、殺してしまえと言うのもダメ、と子供でも分かる。しかしAIはそのような善悪判断が現状では、できない。AIはあくまでもプログラムであり、善悪判断させたいならそれをプログラムするなり学習させなければならないが、現状それは実現していない。
我々人間はその思考を善悪判断のような倫理的規範を上位に置いて規制するが、LLMは前後の文脈からポンポン機械的に返してしまう。対話型AIなら相手を是認する方向に回答するようチューニングされるだろうから、道徳に反する「回答」もしかねない。
あるいはAIは現地を実際に訪ねて回ったり、地図を見たりしない。なので存在しない地名や名所を「生成」してしまう。正しい記載がされたテキストだけを学習させれば、正しく「回答」するかもしれないが、雑多なWebを「学習教材」としていれば、誤認し間違える。
これが「ヘンテコ観光サイト」や「テストで派手に皆間違えてなんかおかしい」なら笑い話で済むが、「親を殺してしまえ」「国家元首の暗殺イイネ」となると、反社会的で問題だ。単に「敵を殺せ」としても、どうなのか。
日本の科学技術立国としての役割我が国は、科学技術立国、世界初二足歩行ロボット「アシモ」を開発し、そもそもAI理論の基礎「ネオコグニトロン」を開発した。わが国と科学者は、その意地をしてAIさらにはロボット全般の道徳倫理規制を法制化すべきではないか。