NVIDIAは、クラウドベースプラットフォーム「NVIDIA GPU Cloud(NGC)」のコンテナレジストリサービスを提供開始した。テストおよび最適化済みのコンテナ化されたディープラーニングソフトウェアスタックにすぐにアクセスできる。
NVIDIAは2017年10月25日(米国時間)、クラウドベースのプラットフォーム「NVIDIA GPU Cloud(NGC)」のコンテナレジストリサービスを全世界のAI/ディープラーニング開発者向けに提供開始したと発表した。
開発者は、NGCに登録してアカウントを作成すれば、幅広いディープラーニングフレームワーク、NVIDIAのライブラリ、CUDAのランタイム版を統合、最適化した、コンテナ化されたソフトウェアスタックを無料でダウンロードし、使用できる。これらは、最新の状態に保たれており、クラウドや「NVIDIA DGX」システムでシームレスに動作する。
このソフトウェアスタックは、リリースされたばかりのAmazon Elastic Compute Cloud(Amazon EC2)の「P3」インスタンスで利用することもできる。P3インスタンスは、「NVIDIA Tesla V100」GPUを最大8個搭載する。NVIDIAは近いうちに他のクラウドプラットフォームもサポートする計画だ。
NVIDIAは、NGCコンテナレジストリの主なメリットとして以下を挙げている。
NGCコンテナレジストリからダウンロードできるコンテナ化されたソフトウェアには、NVCaffe、Caffe2、Microsoft Cognitive Toolkit(CNTK)、DIGITS、MXNet、PyTorch、TensorFlow、Theano、Torchに加え、アプリケーション開発用にCUDAが含まれている。
NGCコンテナレジストリで提供されるソフトウェアは、高いパフォーマンスを発揮するようにNVIDIAがチューニング、テスト、動作確認を行っている。
ユーザーは、使いやすいコンテナにより、ディープラーニングジョブをすぐに開始でき、面倒で時間がかかるソフトウェア統合を自分で行わずに済む。
NGCコンテナレジストリで利用できるコンテナは、NVIDIAが継続的に開発を行っていることによる恩恵を受ける。各ディープラーニングフレームワークは、最新のNVIDIA GPU上で最大限高速に訓練を行えるようチューニングされている。また、NVIDIAのエンジニアはライブラリ、ドライバ、コンテナを継続的に最適化し、更新プログラムを毎月提供する。
Copyright © ITmedia, Inc. All Rights Reserved.