せっかくコンパクトなウェアラブルデバイスによってARがハンズフリーな技術へと近づいたのに、操作の利便性を求めると、「ハンズフリーであるというメリット」を捨てなければいけないのです。
実際、スマホなしで電話したり映画を見たりできても、結局のところ、別の操作デバイスを持つ必要があるのであれば、「別にスマホでいい」と感じるかもしれません。
これの解決策の1つには、SF映画に出てくるような「空間をインターフェースにする」技術が該当するかもしれません。
しかしこれは現状では技術的に実現が困難です。
まずデバイス側に触れる位置の深度を認識させることが難しいため、ボタンを押しているのか、ボタンに触れずに指を移動しているだけなのかを解釈させることが上手くできません。
また視界と手の位置を上手く一致させることも難しく、触れた感覚がないため、ものすごく大きなボタンを押すことはできるでしょうが、細かな操作をすることができません。
特に触れている感覚がないというのは、操作する側に取ってはかなり使いづらいデザインです。
タッチスクリーンが広まった現代で、物理ボタンの復活が一部始まっていることを考えると、操作した時の触覚が大切であることは十分理解できます。
【タッチスクリーンからボタンへ】物理ボタンの復活が始まっている
では、AR技術の発展において、次の順当な着地点はどこになるでしょうか。
それは、モリン氏ら研究チームの「てのひらをタッチスクリーンにする技術」かもしれません。
手のひらにARで操作用のタッチスクリーンを投影し、まるでスマホを扱うかのように、指で操作し、ARグラスやARゴーグルのコンピューターに指示を送るというのです。