「NVIDIA GPU Cloud(NGC)」のサポート対象プラットフォームに「Microsoft Azure」が加わった。NGCのコンテナレジストリで提供されるGPUアクセラレーテッドコンテナを、NVIDIA GPUを搭載するAzureの3つのインスタンスタイプで実行できるようになった。
NVIDIAは2018年8月29日(米国時間)、同社のGPU対応クラウドプラットフォーム「NVIDIA GPU Cloud(NGC)」のサポート対象プラットフォームに「Microsoft Azure」が加わったことを明らかにした。
これにより、NGCのコンテナレジストリで提供される35種類のGPUアクセラレーテッドコンテナが、NVIDIA GPUを搭載するAzureの3つのインスタンスタイプで実行できるようになった。
Azureのインスタンスタイプは以下の図の通り。
NGCのコンテナレジストリで提供されるコンテナの種類は複数ある。NVIDIAがチューニング、テスト、動作確認を済ませたディープラーニングソフトウェアのコンテナや、HPC(ハイパフォーマンスコンピューティング)用の完全にテストされたGPUアクセラレーテッドアプリケーション、ビジュアライゼーション(視覚化)ツールのコンテナなどだ。
こうしたディープラーニングソフトウェアは、「Microsoft Cognitive Toolkit」「TensorFlow」「PyTorch」「NVIDIA TensorRT」といったフレームワークも含まれる。
NVIDIAは広範な統合とテストの結果、各フレームワークに最適なソフトウェアスタック(必要なOSパッチ、NVIDIAディープラーニングライブラリ、「NVIDIA CUDA Toolkit」などを含む)を構築することで、こうしたディープラーニングソフトウェアのコンテナがNVIDIA GPUをフルに活用できるようにした。さらにディープラーニングコンテナは、ソフトウェアとコンポーネントの最新のアップデートにより、毎月更新される。
また、NGCでコンテナが提供されるGPUアクセラレーテッドアプリケーション、ビジュアライゼーションツールは、「NAMD」「GROMACS」「LAMMPS」「ParaView」「VMD」を含む。これらのコンテナはユーザーのデプロイを容易にし迅速な立ち上げを助け、最新機能を利用できるようにする。
また、AzureではこうしたNGCコンテナをユーザーが簡単に使えるように、Azure Marketplaceで「NVIDIA GPU Cloud Image for Deep Learning and HPC」という新しいイメージを提供する。これは、NGCコンテナの実行に必要な要素を完備した構成済みのAzure仮想マシンだ。
AzureでNGCコンテナを実行するには、NVIDIAが公開しているこのイメージを使う以外の方法もある。Azure NCv2、NCv3、ND仮想マシンから「Azure Batch AI」を使って、NGCコンテナをダウンロードして実行することだ。
NVIDIAは、NGCのAzureサポートにより、多くの開発者、データサイエンティスト、研究者が、GPUコンピューティングプロジェクトを素早く開始できるようになったと述べている。
Copyright © ITmedia, Inc. All Rights Reserved.