イギリスのランカスター大学とカリフォルニア大学バークレー校の共同研究チームは、最新のAIテクノロジーで生成された人間の顔(合成顔)の画像と、本物の人間の顔の画像を区別できるかという実験を行いました。

研究チームによると、それら2つの区別をつけるのは難しく、「ディープフェイク」を防ぐためのセーフガードの必要性を訴えています。

ディープフェイクを見抜くのは至難の業

私たちの生活にとって身近な存在となりつつある便利なAIですが、悪意を持った者が使うことで、恐ろしい事例が起きていることも事実。

たとえば、AIが合成したテキスト・音声・画像・映像は、詐欺やプロパガンダ、またいわゆる「リベンジポルノ」などでも利用されています。

なかでも、とくに悪用される可能性が高いというディープフェイクについて、イギリスのランカスター大学とカリフォルニア大学バークレー校の共同研究チームが実験を行いました。ディープフェイクとは、「深層学習(ディープラーニング)」と「偽物(フェイク)」を組み合わせた混成語で、AIが生成する人物画像合成テクノロジーのことを指します。

今回の実験では「StyleGAN2」と呼ばれる最新のAIが使用されたとのこと。まず第一回目の実験では、315人の参加者が800人の顔から128人の顔を「本物か、合成の顔か」に分類しました。その結果、正解率は48%にとどまったとのこと。本物か偽物かを区別できた確率が「半分(約50%)」だったということは、315人の参加者は実質的にはAIと本物を区別できていないことになるでしょう。