この研究では、85%の精度で正確な意味や文脈と動きを持つ動画を再構成することに成功し、これまでの静止画像の再構成を超えた大きな進展を示しました。

左:映像サンプル、右:AIが生成した映像 / Credit: NUS/CUHK – Mind-Video(2023)
左:走行中の車から見た映像サンプル、右:AIが生成した映像 / Credit: NUS/CUHK – Mind-Video(2023)

脳活動から「頭の中の光景」を動画にできるAIを開発!将来的に見た夢の映像化も!?

脳が想像する映像の動きや変化をリアルタイムに捉えることができるこの技術は、夢の解析にも応用可能であり、夢のシミュレーション技術をさらに進化させる可能性を秘めています。

AIが夢の中のストーリーや動きまでを再構成できるようになれば、より精密な夢の再現やコントロールが実現する未来が近づいていると言えるでしょう。

夢をデザインする—AIがもたらす夢の自由化

夢は一見脈絡のないもののように感じますが、ランダムな映像の羅列ではなく、大抵の場合なんらかのストーリー性を持っています。

ここで注目されているのが、AIが夢の機能をシミュレートする技術の研究です。

Google BrainでAI研究に従事していたデビッド・ハ(David Ha)と、スイス人工知能研究所(IDSIA)の所長であり長年にわたり深層学習の発展に貢献してきたユーゲン・シュミットフーバー(Jürgen Schmidhuber)が2018年に発表したWorld Modelsというシステムでは、AIが「自分だけの仮想世界」を作り出し、そこでシナリオを自由に展開できる仕組みが研究されています。

この研究は、スイス人工知能研究所(IDSIA)とGoogle Brainの共同研究として進められました。

この研究自体は、AIが仮想的な内世界で強化学習を行う手法として提案されていますが、ここで再現されているものは人間の夢が持つ機能に類似しています。