韓国のKAIST AI大学院チェ・ジェシク教授(説明可能な人工知能研究センター長)の研究チームが、深層学習(以下ディープラーニング)生成モデルのエラー修正技術を開発したと25日に明かした。
最近ディープラーニング生成モデル(Deep Generative Models)は画像や音声だけでなく、文章など新たなコンテンツを生成するのに広く活用されている。このような生成モデルの発展にも関わらず、最近開発された生成モデルも依然として結果に欠陥がある場合が多く、国防、医療、製造など重要な作業や学習に生成モデルを活用するのは難しい点があった。
チェ教授の研究チームは、ディープラーニング内部を解析する説明可能な人工知能を活用し、生成モデルの内部で、画像生成過程で問題を起こすユニット(ニューロン)を見つけ除去するアルゴリズムを考案し、生成モデルのエラーを修正した。このような生成エラーの修正技術は、ニュートラルネットワークモデルの再学習を要求せず、モデルの構造に対する依存性も少なく、様々な敵対的生成ネットワークに広く応用・適用できると期待される。また、考案された技術はディープラーニング生成モデルの信頼度を向上させ、生成モデルが重要な作業にも適用されることが期待される。
AI大学院のAli Tousi、チョン・へドン研究員が共同第一著者として参加した今回の研究は「国際コンピュータビジョンとパターン認識学術大会(IEEE Conference on Computer Vision and Pattern Recognition, CVPR)」で6月23日に発表された。(論文名:Automatic Correction of Internal Units in Generative Neural Networks, CVPR 2021)
敵対的生成ネットワークは、生成器と識別器の敵対関係を利用したモデルで、生成画像の品質が高く多様性も高いため、画像生成だけでなく様々な分野(例えば、時系列データの生成)で注目されている。
ディープラーニング生成モデルの性能を向上させるために、敵対的生成技法・生成器の新しい構造設計あるいは学習戦略の細分化といった研究が活発に行われている。しかし、最新の敵対的生成ネットワークモデルは依然として視覚的欠陥を含む画像を生成しており、再学習を通じてこれを解決するにはエラー修正を保障できず、多くの時間とコストが必要になる。このように規模が大きい最新の敵対的生成ネットワークモデルの一部エラーを解決するために、モデル全体を再学習させるのは不適切だ。