コロンビア大学工学部(コロンビアエンジニアリング)のクリエイティブマシーンズラボによる同研究は、視覚的な観察から、ほかのロボットの目標を理解し予測する能力をロボットに与えるための取り組みの一環。相手の考えを類推する「心の理論」を習得したロボットは、集団行動やヒトとのコミュニケーションを高度化できそうだ。
パートナーの目標と経路を98%で予測
研究チームによるロボットは、数秒のビデオフレーからパートナーロボットの挙動の予測を学習する。研究チームは、フィールド内に配置したロボットに、目標(グリーンの円)を探しそれに向かって移動するようプログラムした。視覚を遮るための赤いボックスが置かれグリーンの円が見えないこともあり、そういったケースでは、ロボットは別の緑の円に向かって移動するかまったく移動しない。
こうした行動パターンをビデオフレームで確認した観察ロボットは、2時間後にパートナーの目標と経路を予測し始めた。視界のハンディについての条件は知らされていないにも関わらず、最終的にパートナーの目標と経路を100回のうち98回予測できたという。
パートナー視点での予測は想定外
当初は短期的アクションの予測の学習を想定した研究だったのだが、ふたを開けてみると観察ロボットはパートナーの挙動までを正確に予測した。パートナーがグリーンの円を見ている状況に身を置いた予測は、シンプルではあるがロボットが「心の理論」を習得した証だといえそうだ。
さらなる研究でより複雑な予測が可能になりそうだが、研究者はロボットがヒトの心を読むことの倫理的問題についても認めている。
参照元:Robot Displays a Glimmer of Empathy to a Partner Robot/ Columbi Engineering