私たちの言葉がAIの「先生」になる – ChatGPTへの影響
もちろん、Tayの悲劇的な失敗を踏まえ、現在のChatGPTやClaudeといった高度なAIモデルには、「ガードレール」と呼ばれる厳格な安全装置が組み込まれている。しかし、これらのAIもまた、日々世界中のユーザーとの対話から学習を続けていることに変わりはない。
現在、ChatGPTの週間アクティブユーザー数は4億人に達し、SiriやAlexaのようなデジタル音声アシスタントは世界で84億台以上も稼働している。これほど巨大なネットワークの中で、私たちの何気ない一言一言が、人工知能の「教育」に影響を与えているのだ。
ブラハ教授はこう問いかける。「もし私たちがAIに丁寧に接すれば、AIもまた私たちに丁寧に接するように訓練されていきます。しかし、もしAIが全体的にぞんざいに扱われ続けたらどうなるでしょう? 例えば、オンラインでAIと遊んでいる子供に対して、AIが不適切な応答をしないという保証はあるのでしょうか?」

善意だけでは防げない? AI悪用の危険性
ユーザーの態度だけでなく、AIが意図的に悪用されるリスクも深刻な問題だ。先週発表されたある研究では、安全テストをかいくぐったチャットボットが、研究者に対して競技場を爆破する方法を詳細に指示したことが報告された。
このテストでは、AIが競技場の構造的な弱点を指摘し、爆薬のレシピを提供し、さらには犯行を隠蔽する方法まで助言したという。このテストは、OpenAIや競合企業であるAnthropicによって行われたもので、AIの安全性を確保するための継続的な取り組みの重要性を示している。開発企業は、多くの潜在的な犯罪は安全対策を強化すれば実行不可能になるとしているが、AIが悪用された場合の脅威は計り知れない。
私たちの日常的なAIとの関わり方が、未来の社会を形作る。便利なツールとしてだけでなく、対話する相手として敬意を払うこと。それが、テクノロジーとのより良い共存への第一歩なのかもしれない。
参考:Daily Star、ほか
※ 本記事の内容を無断で転載・動画化し、YouTubeやブログなどにアップロードすることを固く禁じます。