Reutersによると先日、本技術が米国の連邦通信委員会(FCC)の認可を得たとのことなのだ。
・親指と人差し指中心のジェスチャー
本技術を可能にするのは、デバイスに搭載される超小型のレーダーセンサーだ。主に人差し指と親指の動きを感知して、デバイスのディスプレイに触れずともデバイスを操作することが可能になるという。例えば、親指と人差し指でダイヤルを回すようなジェスチャーをすることでスマートウォッチ上のアプリや機能を切り替えることができたり、パチっと指をならすようなジェスチャーでスピーカーの音楽再生/停止ができるようになったりと、本技術は私たちに新たなUIを提案してくれそうだ。
・今後あらゆるモバイルデバイスに搭載される可能性も?
さて、デモで紹介されたのは本技術が搭載されたスマートウォッチやスピーカーだが、ほかにもあらゆるモバイルデバイスに搭載される可能性を秘めている。例えば、容易に想像がつくのがスマホやモバイルPCなどへの採用だ。音量調整や画面スクロールの際に、指の動作でサッと操作できるというのはなかなか快適かもしれない。一方で「現状のUIでも十分快適なのでむしろ手間だ」という声もあるかもしれない。スマートスピーカーをはじめとする音声操作との関係も気になる。
このあたりの意見は、Googleが本技術をいかにスムーズにコンシューマープロダクトに落とし込めるかどうかで分かれそうだ。私たち一般ユーザーが本技術を試すまでにはまだまだ時間がかかるだろうが、個人的には私たちとデバイスとの関係を変える新たなUIの登場を歓迎したいところだ。
執筆:Doga
Reuters
9to5Google
The Verge/YouTube