NVIDIAは、GPU対応クラウドプラットフォーム「NVIDIA GPU Cloud(NGC)」で新たに「NVIDIA TITAN GPU」をサポートし、デスクトップGPUを使用する数十万人のAI研究者がNGCを利用できるようにした。
NVIDIAは2017年12月4日(米国時間)、「NVIDIA TITAN」を使用するAI(人工知能)研究者が、同社のGPU対応クラウドプラットフォーム「NVIDIA GPU Cloud(NGC)」を利用できるようになったと発表した。また、NGCコンテナレジストリで利用可能なソフトウェアの追加など、NGCのさまざまな機能拡張を発表した。NVIDIAはこれまでより幅広い強力なツールセットを研究者に提供し、AIやハイパフォーマンスコンピューティング(HPC)の研究開発を後押しする狙いだ。
NGCがサポートしているコンピューティングプラットフォームを使用する顧客は、NGCに登録して無料アカウントを作成し、GPUに最適化されたディープラーニングおよびHPC用の包括的なソフトウェアおよびツールにフルアクセスできる。
NGCが新たに「NVIDIA Pascal」アーキテクチャGPUのNVIDIA TITANをサポートしたことで、同GPUを使用する顧客は、NGCで提供されるソフトウェアおよびツールを全て利用できるようになった。サポート対象のコンピューティングプラットフォームにはNVIDIA DGX-1」「NVIDIA DGX Station」、Amazon EC2の「NVIDIA Volta」アーキテクチャGPU搭載インスタンスなどが含まれる。
またNGCのコンテナレジストリでは、利用可能なソフトウェアが急速に増えており、その中には、ディープラーニングフレームワーク「TensorFlow」「PyTorch」、サードパーティーが管理するHPCアプリケーション、NVIDIAのHPC可視化ツール、NVIDIAのプログラマブル推論アクセラレータ「NVIDIA TensorRT 3.0」(以下、TensorRT)などが含まれる。
さらにNVIDIAは今回、NGCの機能拡張として、TensorRTにおける「Open Neural Network Exchange(ONNX)」のサポートや、ディープラーニングフレームワーク「Apache MXNet 1.0」のサポート、BaiduのAIフレームワーク「PaddlePaddle」の提供開始を発表した。
ONNXはMicrosoftとFacebookが共同で開発した、ディープラーニングモデルのオープンフォーマット。開発者はこのフォーマットを使って、異なるフレームワーク間でモデルを交換できる。NVIDIAは、ONNXモデルをTensorRT推論エンジンにデプロイするためのコンバーターを作成した。これにより、アプリケーション開発者は、低レイテンシで高いスループットのモデルを容易にTensorRTにデプロイできる。
こうした機能拡張によってNVIDIAは、NGCを「研究から、アプリケーション開発、訓練、デプロイまで、AIにおけるコンピューティングのニーズを総合的にサポートするソフトウェアのワンストップショップ」とすることを目指す考えだ。
Copyright © ITmedia, Inc. All Rights Reserved.