海外・国内のベンチャー系ニュースサイト | TECHABLE

TECHABLE

Release NVIDIA と Microsoft、協力して AI を加速

Release

NVIDIA と Microsoft、協力して AI を加速

SHARE ON

このエントリーをはてなブックマークに追加
Microsoft Cognitive Toolkit が Microsoft Azure クラウドおよび NVIDIA DGX-1 を利用するオンプレミス環境で利用可能に

画像:


ソルトレークシティー—SC16—2016 年 11月 14 日—NVIDIAは本日、AI による大変革に参画する企業を支援するため、企業における AI を加速させる Microsoft とのコラボレーションを発表しました。

企業は、Microsoft Azure またはオンプレミス環境の NVIDIA(R) Tesla(R) GPU 上で稼働するよう最適化された初の企業専用 AI フレームワークを使用し、自社のデータ センターから Microsoft のクラウドまでをカバーする AI プラットフォームの利用が可能になりました。

NVIDIA の創設者兼 CEO であるジェンスン・フアン(Jen-Hsun Huang)は、次のように述べています。「各業界は、AI の可能性に気付いています。NVIDIA は、Microsoft と連携して超高速 AI プラットフォームを構築しました。当社の DGX-1™ スーパーコンピューターを利用するオンプレミスから Microsoft Azure クラウドにわたる環境で利用可能なプラットフォームです。Microsoft は世界にサービスを提供しているため、世界中の企業が AI の能力を活用して自社のビジネスを変革できるようになりました」

Microsoft AI and Research Group 担当エグゼクティブ バイス プレジデントであるハリー・シャム(Harry Shum)氏は、次のように述べています。「私たちは、すべての組織が AI を利用して能力を向上させ、よりスマートに製品を創造し、世界で最も喫緊の課題の一部を解決できるよう研究を重ねています。NVIDIA と緊密に連携し、GPU アクセラレーテッド システムの能力を活用することにより、Cognitive Toolkit および Microsoft Azure は最も迅速かつ汎用的な AI プラットフォームになりました。今や AI は、どの企業からも手の届くところにあるのです」

協力して最適化されたプラットフォームにより、新しい Microsoft Cognitive Toolkit (以前の CNTK)は、NVLink™ インターコネクト テクノロジーを備えた Pascal™ アーキテクチャーの GPU を利用する NVIDIA DGX-1™ スーパーコンピューター などの NVIDIA の GPU、および 現在プレビュー版が提供されている Azure N シリーズ仮想マシン上で実行されます。この組み合わせにより、ディープラーニングのデータを使用すると、これまでにないパフォーマンスと使いやすさがもたらされます。

結果として、企業は AI を活用し、より適切な意思決定、より迅速な新しい製品とサービスの提供、より優れた顧客満足体験を実現できるようになります。このような動きは、AI を導入するすべての業界で生じています。わずか 2 年間で NVIDIA がディープラーニングに関して協力してきた企業の数は 194 倍の 19,000 社を超えるまでに急増しました。医療、ライフ サイエンス、エネルギー、金融サービス、自動車、製造業などの業界は、極めて大量のデータに関するより深い洞察からメリットを得ています。

Microsoft Cognitive Toolkit は、他の利用可能なツールキットよりも迅速にディープラーニング アルゴリズムをトレーニングして評価し、CPU から GPU や複数マシンへ、その精度を維持しながら、環境の範囲内で効率的に規模を調整します。NVIDIA と Microsoft は緊密に協力しながら、 GPU ベースのシステムおよび Microsoft Azure クラウドにおいて Cognitive Toolkit を加速させ、新興企業や大企業に以下の能力を提供します。

· 汎用性の向上:Cognitive Toolkit により、お客様は、1 つのフレームワークを使用し、NVIDIA DGX-1 または NVIDIA GPU ベースのシステムを利用したオンプレミス環境でモデルをトレーニングしてから、そのモデルを Azure クラウドで実行できます。このような拡張性の高いハイブリッド アプローチにより、企業は、インテリジェント機能の迅速な試作と展開が可能になります。

· パフォーマンスの高速化:GPU アクセラレーテッド Cognitive Toolkit は、CPU における実行と比較すると、Azure N シリーズ サーバーおよびオンプレミスで利用可能な NVIDIA GPU では、ディープラーニングのトレーニングと推論をはるかに速いスピードで実行します。(1) たとえば、Pascal および NVLink インターコネクト テクノロジーを備えた NVIDIA DGX-1 は、Cognitive Toolkit を CPU サーバーの 170 倍の高速で実行します。

· より幅広い利用可能性:NVIDIA GPU による Azure N シリーズ仮想マシンでは、現在、Azure ユーザーに対してプレビュー版が提供されており、まもなく一般提供の予定です。Azure GPU を利用すると、トレーニングおよびモデルの評価の両方を加速できます。すでに数千件のお客様がプレビュー版の一部を体験し、あらゆる規模の企業が Azure N シリーズ仮想マシンの Tesla GPU 上でワークロードを実行しています。

NVIDIA と Microsoft はコラボレーションを継続し、Azure の NVIDIA GPU 向けに、また、オンプレミスの NVIDIA DGX-1 と接続する場合はハイブリッド クラウド AI プラットフォームの一部として、Cognitive Toolkit の最適化を進める計画です。

その他のリソース
· Microsoft Cognitive Toolkit
(https://www.microsoft.com/en-us/research/product/cognitive-toolkit/)
· Azure N シリーズ
(https://azure.microsoft.com/en-us/blog/azure-n-series-preview-availability/)
· NVIDIA ディープラーニング
(http://www.nvidia.com/object/deep-learning.html#utm_source=shorturl&utm_medium=referrer&utm_campaign=deeplearning)
· NVIDIA DGX-1
(http://www.nvidia.com/object/deep-learning-system.html#utm_source=shorturl&utm_medium=referrer&utm_campaign=dgx1)
· NVIDIA CEO が予測する、AI 活用の産業革命、NVIDIA CEO、ジェンスン・フアン
(https://blogs.nvidia.co.jp/2016/10/27/intelligent-industrial-revolution/)

(1) AlexNet トレーニング バッチ サイズ 128、デュアルソケットの E5-2699v4、44 コアの CPU、CNTK 2.0b2 を使用して NVIDIA DGX-1 システムと比較した。最新の CNTK 2.0b は cuDNN 5.1.8、NCCL 1.6.1 を含む。

NVIDIAについての最新情報:
公式ブログNVIDIA blog(https://blogs.nvidia.co.jp/)

NVIDIAについて
NVIDIA は AI コンピューティングカンパニーです。当社が 1999 年に開発した GPU が、PC ゲーム市場の成長に拍車をかけ、現代のコンピューターグラフィックスを再定義し、並列コンピューティングを一変させました。最近では、世界を認知して理解できるコンピュータ、ロボット、自動運転車の脳の役割をGPUが果たすまでになり、GPU ディープラーニングが最新の AI、つまりコンピューティングの新時代の火付け役となりました。詳しい情報は、http://nvidianews.nvidia.com/をご覧ください。

企業プレスリリース詳細へ
PR TIMESトップへ
Techableの最新情報をお届けします。
前の記事

WHAT'S NEW

最新情報