・カメラ&コンピュータービジョンを活用
そこで、イギリスのニューカッスル大学のKianoush Nazarpour氏らのチームが研究開発しているのが、“人工知能(AI)”を用いた義手である。
これまでは、“筋肉からの電気信号を用いて動きをコントロールする方法”が主流だった。この新式義手の場合、上部にカメラが搭載されていて、義手でつかむオブジェクトをコンピュータービジョンでチェックする。
・最適な掴み方をAIが瞬時に判断
すると、AIシステムが対象物のサイズや方向、形状に応じて、どのような掴み方が最適なのかを判断し、即座に必要な決定をおこない、義手にその動きをするよう指令を送るという。
この間わずかミリ秒という素早さ。これは従来の方法に比べ約10倍の速さであり、すべて自動でおこなわれる。ユーザーはこれまで以上にオブジェクトに集中でき、ナチュラルな動作が可能になる。
つまり、“目にしたもの”を苦労することなく掴めるようになり、いちいち動作のたびにかかっていたストレスから解放されるのだ。
・より大きなプロジェクトの一環
「ビジョンを基盤とし、脳のニュートラルネットワークを利用したディープラーニングによって、オブジェクトをより正確に認識し、最適な動作方法を選択できるようになる」この技術は、より大きな研究プロジェクトテーマである「圧力や温度を感知し、即座にその情報を脳へと送る生物医学的義手」開発の一環だという。
もしこのプロジェクトが現実化すれば、ほぼ健常者と変わらない手の動作を、障害者もおこなえるようになるかもしれない。期待して待ちたい。
Newcastle University