William & Maryおよびノースイースタン大学らの研究チームは、モバイル端末で効率的な処理が可能なAIフレームワークを開発した。「CoCoPIE」を活用すれば、スマホやタブレット、IoTデバイスでハードウェアの大幅に変更なしにリアルタイムAIアプリケーションを実行できる。
パターン予測による圧縮コンパイル技術で特許申請中
CoCoPIEでは、モバイル端末でディープニューラルネットワーク(DNN)によるリアルタイム処理を実現する。キモとなるのは新たに開発したパターン予測による圧縮コンパイル技術で、同技術は特許申請中だ。Samsungの「Galaxy S10」上での画像処理のパフォーマンスを競合と比較。画像のカラー化、スタイル変換、高解像度化の3種類のテストをCPU、GPUで実施している。
TensorFlow Liteの12倍速い
テスト結果はCoCoPIEの優位性を証明。CPUではTensorFlow Liteで12~44.5倍、TVM(Tensor Virtual Machine)で2.3~8.1倍、Alibaba MNNで1.9~15.5倍の速さで、GPUではそれぞれ2.5~20倍、4.1~11.4倍、2.5~6.2倍の速さで処理できたという。さらに、モバイル端末上のGPUを用いたCoCoPIEの処理は、Google TPUやNVIDIA Xavierといった主要5種類のエッジコンピューティング向けAIチップよりも電力効率が高かった。
CoCoPIEは、スマホのカメラだけでなく、IoTデバイスでの処理を高速化、省電力化できるとのことで、リアルタイムに犯罪を検出したりも可能になりそうだ。
参照元:CoCoPIE: A software solution for putting real artificial intelligence in smaller spaces/ William & Mary
CocoPIE: Making Mobile AI Sweet As PIE —Compression-Compilation Co-Design Goes a Long Way/ CoCoPIE