ヒトは触覚的なフィードバックのおかげでモノをうまく識別してつかんだり動かしたりができる。ロボットの手にセンサーをとりつけて同じことをさせようとの取り組みもあるが、MITの研究者らはこれとは少し違ったアプローチでロボットのピッキング能力獲得をすすめている。
ヒトが大量のセンサーを備えた手袋を着用して、ここから得た触覚データを活かそうというものだ。
・低コストなのに高解像度のデータが得られる手袋
MITの研究者らは、触覚のみでモノを認識するためには、ヒトのやり方を模倣するのが有効だと気づいた。そのために、開発した手袋にはには約550個のセンサーが備えられている。これを着用してモノに作用することで非常に高解像度のデータを生成する。しかも計約10ドルほどの市販材料でできていて、コストが低く抑えられる点も画期的だ。
・圧力データをマップに展開
「STAG」と呼ばれるこの手袋をヒトがはめて、モノをつかむときの圧力データを取得する。ポイントとなるのが、圧力のかかった位地や力の大きさをドットで表した「触覚マップ」の作成で、手袋をはめたヒトがモノを触ったり、持ち上げたり、落としたりするとセンサーは逐一圧力を記録してマップに変換する。
ここで得られた画像データを入力にして、畳み込みニューラルネットワーク(CNN)にて特定のモノやその重量に関連する圧力パターンを学習した。
また、モノを扱うときの指や手のひらといった領域間の関連を分析。これによりたとえば、人差し指の第二関節と親指を同時に使うことはほとんどない。一方、人差し指と中指の先端は常に親指と協働する…といった法則を見出した。
・76%の精度でモノを特定
はさみ、テニスボール、スプーン、ペン…といった26個の日用品でテストした結果、最大76%の精度でモノを特定し、60g以下のモノのほとんどで正しい重量が予測できたとのこと。また同システムでは、膨大なパターンの手の使い方のなかから、もっともらしいいくつかのパターンを選択して、対話的にモノに働きかけることでヒトのしていることをシミュレートできるもも特徴だ。
「STAG」を用いたアプローチは、たとえば工場内や家庭内といった領域で活躍するピッキングロボットの開発にも適用可能だろう。これにより開発が加速し、かたつけはロボットにおまかせの時代が早くやってくることに期待したい。
参照元:Sensor-packed glove learns signatures of the human grasp/MIT News