他人の想像内容がわかるようです。

日本の大阪大学で行われた研究によれば、脳で想像したイメージを読み取って、同じような意味合いを持つ画像を提示してくれる技術が開発された、とのこと。

想像や思いを画像で伝えることができれば、想像するだけで画像検索が実行可能になるだけでなく、重度の麻痺などで「脳に閉じ込められた人」との画像的なコミュニケーションが実現するでしょう。

また研究では実際に目にした画像と想像している画像が異なるとき(うわのそら状態のとき)、2つの異なるイメージが脳内でどのように存在しているかも調査されました。

最新の脳科学は私たちの脳内世界をどのようにして読み取っているのでしょうか?

研究内容の詳細は2022年3月18日に『Communications Biology』にて公開されています。

目次
Wikipediaを使って人間の脳を模倣するAIを作る
Wikipediaから錬成された人工知能は神経活動データを解読できた

Wikipediaを使って人間の脳を模倣するAIを作る

脳で想像した画像に似た映像を提示できる新システムを開発!
(画像=Wikipediaを使って人間の脳を模倣するAIを作る / Credit:Canva . ナゾロジー編集部、『ナゾロジー』より引用)

私たちが風景や人物の画像を見ると、脳の中では色や形に応じた神経活動が発生します。

同様に脳内で想像の風景や人物をイメージするときにも、現実の画像をみていたときと同じような神経活動が起こることが知られています。

近年のAI技術の進歩は、これらの神経活動を解読することが可能にしており、人々が何をみているのか、あるいは想像しているのかを、脳の神経活動を読み取ることで予測できるようになってきました。

この技術は、SFの世界では「視界の盗撮」や「脳内の盗撮」を可能にするツールとしてネガティブなイメージが持たれることがありますが、適切に運用すれば検索覧に文字を打ち込む代わりに、頭に浮かべたイメージだけで画像検索することが可能になります。

また重度の麻痺などで「脳に閉じ込められた」人々にとっては、自分の思いを画像を使って表現することで、コミュニケーションの拡大が行えるなど、大きな可能性を秘めています。

そこで今回、大阪大学の研究者たちは脳に刺し込んだ電極から電気活動を測定することで、ヒトが見たり想像している画像の意味内容を推定する「脳情報解読技術」を開発しました。

(実験には難治性てんかんの患者さんの協力のもと行われています)

この技術ではまず、Wikipediaに掲載されている膨大な文書や単語を、風景や人物、文字、動物などテーマごとに関連付ける機械学習を行いAIを訓練しました。

AIの学習が完了すると、研究者たちは被験者たちに「人間」「風景」「動物」などさまざまな意味内容が含まれる動画をみてもらいつつ、脳に刺さっている電極から神経活動データを記録しました。

そして得られたデータをAIに提示し、被験者がどのタイミングで何をみていたかを推測させました。

「Wikipediaで単語の関連性を学習したAIに神経活動データを渡してもしょうがないんじゃないか?」

と思うかもしれませんが、Wikipediaは言ってみれば(情報科学的に考えれば)、人間の脳から出力されたデータをテーマ(意味内容)ごとに集めたものになり、人間の脳の部分的な写しと解釈可能です。

そのため小説を読めば作者の学識や人となりが推測できるように、人類の英知(脳の出力データ)を集めたWikipediaを学習させたAIは、人間の脳にある程度近い判断力を持つようになると考えられています。

つまり人間の脳がWikipediaを作った経緯の逆を辿り、Wikipediaから人間の脳のようなAIを作れれば、神経活動データも解読できるはず……という発想です。

研究者たちはこのAIを脳からの電極から得られたデータをもとにさらに訓練しました。

結果、この発想は上手くいきました。

Wikipediaから錬成された人工知能は神経活動データを解読できた

脳で想像した画像に似た映像を提示できる新システムを開発!
(画像=Wikipediaから錬成された人工知能は神経活動データを解読できた / Credit:Canva . ナゾロジー編集部、『ナゾロジー』より引用)

Wikipediaから作られた人工知能は神経活動データを処理できるのか?

答えを得るため研究者たちは早速、神経活動データをAIに読み込ませてみました。

結果、AIは動画を視聴中の被験者の神経活動データのみから、被験者たちが何をみているかをリアルタイムで推測できることが判明します。

特に「人間の顔」「風景」「文字」といったテーマに対しては優秀であり、約70%の精度で識別可能でした。

この結果は、Wikipediaから作られたAIには人間の脳の神経活動データを解読する能力があることを示します。

次に研究者たちは、この解読がリアルタイムでみている画像だけでなく、想像した画像でも働くかを確かめました。

研究者たちは被験者たちにランダムな順序で「人間の顔」「風景」「文字」を想像してもらい、そのときの神経活動データを採取。

そして「Wikipediaから錬成した人工知能(AI)」に想像中の脳の神経活動データを読み込ませました。

結果、AIは人間の想像した画像を55~74%の精度で推測できることが判明しました。

これらの結果は、Wikipedia産のAIは被験者の神経活動データを解読することで、被験者がリアルタイムでみている画像と想像した画像の意味内容をあてられることを示します。

そうなると気になるのが現実と想像の競合です。

私たちが何かの画像を想像するときは常に目を閉じているわけではなく、目には常に何らかの視覚情報が飛び込んできています。

何かを見ている状態で別の画像を想像するとき、私たちの脳では何が起きているのでしょうか?