Thai Liang Lim/iStock

生成型AIと呼ぶのか、対話型AIと呼ぶのか…英語でも”Generative AI”と呼んだり”Conversational AI”と呼んだりと呼称が定まってない感じだが、あれこれネット情報を収集したり、自分でもChatGPTを触ってみたりすればするほど、とてつもないものが出現したという思いが強まる。

何年か前、「シンギュラリティ」って言葉が取り沙汰されたのを覚えている。「AIが人智を超える日」ってなイメージで、それが2045年頃に来るとか言われてた。

AIが成長するために「学習する」データが、ヒトが過去に生んだデータの域を超えないなら、「人智を超える」日は遠いのかもしれない。過去にデータの無い、例えば「万有引力の発見」とか「相対性理論の考案」とかをAIがやってしまうイメージは、今は未だ無い。

けど、ヒトが「知的活動」だの「知的創造」だと考えていた営みの大部分が、実は自分が過去に学習した知識や思考のパターンの適用でしかないのだとすれば、AI は易々とその「知的活動」を代替してしまうだろう。

つまり、凡人の「知的な」営みの大半がAI に置き換えられてしまうという意味での「サブ・シンギュラリティ」は今年開幕してしまったのかもしれない。そのかぎりでは、「シンギュラリティ」がにわかに現実味を帯びて感じられるようになった。

さて、話題は変わって。

14日のFTに”OpenAI’s red team: the experts hired to ‘break’ ChatGPT”という興味深い記事が載った。

Chat GPTを開発した組織Open AI は、最新モデルGPT-4が問題のある、あるいは邪悪な出力をしないように、さらには我々の倫理観や価値観に違(たが)う出力をしないように、各分野の専門家50名を雇って、問題点を指摘させているんだそうだ。セキュリティホールを探して指摘してくれるホワイトハッカーを雇うようなものかな。