NVIDIA TITANユーザーがAI開発に「NVIDIA GPU Cloud(NGC)」を利用可能に:NGCでアクセスできるAIやHPC用ソフトウェアも増加
NVIDIAは、GPU対応クラウドプラットフォーム「NVIDIA GPU Cloud(NGC)」で新たに「NVIDIA TITAN GPU」をサポートし、デスクトップGPUを使用する数十万人のAI研究者がNGCを利用できるようにした。
NVIDIAは2017年12月4日(米国時間)、「NVIDIA TITAN」を使用するAI(人工知能)研究者が、同社のGPU対応クラウドプラットフォーム「NVIDIA GPU Cloud(NGC)」を利用できるようになったと発表した。また、NGCコンテナレジストリで利用可能なソフトウェアの追加など、NGCのさまざまな機能拡張を発表した。NVIDIAはこれまでより幅広い強力なツールセットを研究者に提供し、AIやハイパフォーマンスコンピューティング(HPC)の研究開発を後押しする狙いだ。
NGCがサポートしているコンピューティングプラットフォームを使用する顧客は、NGCに登録して無料アカウントを作成し、GPUに最適化されたディープラーニングおよびHPC用の包括的なソフトウェアおよびツールにフルアクセスできる。
NGCが新たに「NVIDIA Pascal」アーキテクチャGPUのNVIDIA TITANをサポートしたことで、同GPUを使用する顧客は、NGCで提供されるソフトウェアおよびツールを全て利用できるようになった。サポート対象のコンピューティングプラットフォームにはNVIDIA DGX-1」「NVIDIA DGX Station」、Amazon EC2の「NVIDIA Volta」アーキテクチャGPU搭載インスタンスなどが含まれる。
またNGCのコンテナレジストリでは、利用可能なソフトウェアが急速に増えており、その中には、ディープラーニングフレームワーク「TensorFlow」「PyTorch」、サードパーティーが管理するHPCアプリケーション、NVIDIAのHPC可視化ツール、NVIDIAのプログラマブル推論アクセラレータ「NVIDIA TensorRT 3.0」(以下、TensorRT)などが含まれる。
さらにNVIDIAは今回、NGCの機能拡張として、TensorRTにおける「Open Neural Network Exchange(ONNX)」のサポートや、ディープラーニングフレームワーク「Apache MXNet 1.0」のサポート、BaiduのAIフレームワーク「PaddlePaddle」の提供開始を発表した。
ONNXはMicrosoftとFacebookが共同で開発した、ディープラーニングモデルのオープンフォーマット。開発者はこのフォーマットを使って、異なるフレームワーク間でモデルを交換できる。NVIDIAは、ONNXモデルをTensorRT推論エンジンにデプロイするためのコンバーターを作成した。これにより、アプリケーション開発者は、低レイテンシで高いスループットのモデルを容易にTensorRTにデプロイできる。
こうした機能拡張によってNVIDIAは、NGCを「研究から、アプリケーション開発、訓練、デプロイまで、AIにおけるコンピューティングのニーズを総合的にサポートするソフトウェアのワンストップショップ」とすることを目指す考えだ。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- NVIDIA、クラウドベースのAI/ディープラーニング開発者向けコンテナレジストリサービスを提供開始
NVIDIAは、クラウドベースプラットフォーム「NVIDIA GPU Cloud(NGC)」のコンテナレジストリサービスを提供開始した。テストおよび最適化済みのコンテナ化されたディープラーニングソフトウェアスタックにすぐにアクセスできる。 - AWS、MicrosoftやFacebookなどが推すAIフォーマット「ONNX」をサポート
ディープラーニングモデルのオープンフォーマット「ONNX」をサポートする、MicrosoftやFacebookなどの企業グループにAmazon Web Services(AWS)が加わった。 - GEヘルスケア、医療機器分野でNVIDIAおよびIntelと提携
GEヘルスケアは、医療機器分野でNVIDIAおよびIntelとの提携を発表した。NVIDIAのAI関連技術やIntelの「Xeonスケーラブルプラットフォーム」を導入し、画像診断の高速化や医療システムの効率化を目指す。