Googleは11月30日、ラズベリー・パイ・ゼロ(Raspberry Pi Zero)Wボードを活用するAIカメラ「AIY Visionキット」を発表した。
Visionキットは、ローカルでニューラルネットワークモデルが活用でき、クラウドへの接続を必要としない。そしてなんと、プリセットされたモデルだけでなく、機械学習により独自のモデル追加が可能だ。
VisionキットではRaspberry Piを活かした連携が肝となる。その使い方および機能を見ていこう。
・TensorFlowベースのツールで機械学習
Visionキットには、3つのニューラルネットワークモデルが活用できるソフトウェアを搭載。人、猫、犬の検出や顔の検出および表情に現れる感情の判別、1000の共通オブジェクトの認識がおこなえるようになっている。
独自のニューラルネットワークモデルのトレーニングおよび再学習には、ソフトウェアに組み込まれたTensorFlowベースのツールを使用する。
Googleの開発者ブログには活用例として、ホットドックかそうでないかを見分けたり、誰かが部屋に入ってきたら音楽を変えたり、彼女が家に帰ってきたら犬用のドアを開けたり…といったものが挙げられていて、工夫次第でさまざまな連携が実現しそうだ。
・アクションはPython APIで管理
RGBボタンの色の変更、電圧変換による音色の調整、4つのGPIOピンの挙動…といったものを、提供されているPython APIで管理できるので、画像認識と組み合わせて活用したいところ。
また、音声認識に興味がある方には、同じGoogleのAIYプロジェクトから、音声認識をローカルで学習させられる「Voiceキット」もすでにリリース済みとなっていて、もちろんこちらもVisionキットとの連携が可能だ。
ちなみに、45ドル(約5000円)のVisionキットには、別売のRaspberry Pi Zero Wボード、Raspberry Pi Camera 2およびMicro SDカードが必要となる。
・ローカル機械学習は民主化の兆し
Visionキットに関しては、今のところアメリカのMicro Centerへ直接行くしか入手方法がなく、現地に友人がいない方は日本でのリリースを待つしかないだろう。
一方、Amazonも先日行われた年次カンファレンス「re:Ivent」にて、映像撮影対象に関してローカルで機械学習を走らせることができる「DeepLens」を発表している。
こうしたローカルでの機械学習は、生活を大変便利にするだけでなく、サービスの質を劇的に高めるもので、今後も類似プロダクトのリリースが相次ぐと予想される。
参照:Google’s new kit uses Raspberry Pi to bring image recognition to your project/DIGITAL TRENDS
参照:Introducing the AIY Vision Kit: Add computer vision to your maker projects/Google Developers