海外・国内のベンチャー系ニュースサイト | TECHABLE

PRESENTED BY MashMedia

TECHABLE

Tech MITが自閉症の行動から意図を読み取るAI開発へ!個別ディープラーニングにより実現

Tech

MITが自閉症の行動から意図を読み取るAI開発へ!個別ディープラーニングにより実現

表情や声から感情を認識するAIの開発がさかんだ。膨大なデータから直接結果を得るディープラーニングでは、顔のどの部分を見るのが感情分析に有効か、などを考えることなくデータから最も重要な情報が抽出できる。 MITメディアラボ...

SHARE ON

このエントリーをはてなブックマークに追加
表情や声から感情を認識するAIの開発がさかんだ。膨大なデータから直接結果を得るディープラーニングでは、顔のどの部分を見るのが感情分析に有効か、などを考えることなくデータから最も重要な情報が抽出できる。

MITメディアラボの研究者は、このアイデアをさらに一歩踏み出し、個別に収集したデータから学習するAIモデルを開発した。

個別の行動の意図が解釈ができるAIは、他人の表情を読み取ることが困難な特性を持つ、自閉症の子供の療育に役立てられるものだ。

・映像、音声、生理データから個別にAIを構築


「自閉症スペクトラム障害」という疾病分類名が示す通り、それぞれ全く違う特徴を持つ子供たちに関わるうえで、アプローチの個別化は特に重要となる。

そこでMITメディアラボの研究者は、学習のたびに膨大なデータが必要となる通常の学習手法ではなく、それぞれのデータを用いて行動分析ができるAIモデルを開発した。

映像、音声、生理データと、それぞれの子供の診断結果や能力、文化および性別に関する情報から個別AIを構築。

セラピストは自閉症の子供に顔の写真や絵カードを見せて表情の認識方法を教えるが、これをAI搭載のロボットで補う。

ロボットが、子供が興味を持っているか退屈しているかなど、行動を解釈できれば、より効果的な療育が可能となるだろう。

・SoftBank Roboticsの「NAO」にAIを搭載


AIの検証では、3~13歳の自閉症児35名(日本17名、セルビア18名)に、35分間のセッションを実施。目の色や手足の動き、声の調子で感情が表現できる、SoftBank Roboticsの「NAO」に個別AIを搭載した。

子供の手首のモニターから、各子供の顔の表情、頭と体の動き、ポーズとジェスチャー、声と心拍数、体温、皮膚からの発汗状況を取得。

「喜び、怒り、興味、愛着」についてAIと専門家による見立てを比較したところ、60%の相関が確認された。

AIによる評価のプロセスも確認できて、これにより、いくつかの文化的違いも明らかになった。例えば、体の大きな動きは、日本の子供たちでは高い愛着行動の表れだっとのに対し、セルビアの子供たちでは真逆の意味となったようだ。

長期的な目標は、セラピストを置き換えるロボットを作るのではなく、あくまで個別に最適な治療を施すための補助として役立てるとのことで、質の高い療育の広がりに期待したい。

参照元:Personalized “deep learning” equips robots for autism therapy/MIT News
Techableの最新情報をお届けします。
前の記事
次の記事

#関連キーワード


WHAT'S NEW

最新情報