実際、手の振れによるわずかな明暗の変化を検知すると、その瞬間にスパイク信号を発して「手が動いた」というイベントを自動的に記録しました。
人間が目で動きを捉えて脳に伝え記憶するのと同様に、このチップ自体が見る・処理する・覚えるを完結させているのです。
ワリア教授は「この試作デバイスは、人間の目が光を捉える能力と脳が視覚情報を処理する能力を部分的に再現しており、大量のデータや大きなエネルギーを必要とせずに環境の変化を瞬時に察知できます」と強調しています。
さらにゲート電圧を用いたリセット機能により、一度記録した後はすぐに次の変化を捉えられる高速応答が可能です。
このように、本研究のMoS₂チップはセンサー・プロセッサ・メモリを統合した人工視覚ニューロンとして機能し、SNNの基礎技術としても応用できる可能性を示しました。
自動運転の『第六感』へ――応用と課題

今回開発されたニューロモルフィック視覚デバイスは、将来的に自律走行車やロボットの「目」と「脳」を一つにまとめる技術として大きな可能性を秘めています。
研究チームによれば、この技術を応用することで、自動運転車やロボットが予測困難な環境下でも、危険の兆候をほぼ瞬時に察知し、従来より格段に速い反応が可能になるといいます。
ワリア教授は「こうした応用分野でニューロモルフィック・ビジョン技術が実現すれば、大量のデータを処理せずともシーンの変化をほぼ即座に検出し、飛躍的に迅速な対応ができるようになります」と述べています。
ワリア教授は続けて「それは人命を救うことにもつながり得るでしょう」と強調しています。
共同研究者のアクラム・アル=ホウラニ(Akram Al-Hourani)教授は「人間と密接に関わる製造現場や家庭内でロボットが働く際にも、この技術によって人間の動きを即座に認識・反応できれば、遅延のない自然なインタラクションが可能になるでしょう」と期待を語っています。