NVIDIA、クラウドベースのAI/ディープラーニング開発者向けコンテナレジストリサービスを提供開始:Amazon EC2の「P3」インスタンスでも利用可能
NVIDIAは、クラウドベースプラットフォーム「NVIDIA GPU Cloud(NGC)」のコンテナレジストリサービスを提供開始した。テストおよび最適化済みのコンテナ化されたディープラーニングソフトウェアスタックにすぐにアクセスできる。
NVIDIAは2017年10月25日(米国時間)、クラウドベースのプラットフォーム「NVIDIA GPU Cloud(NGC)」のコンテナレジストリサービスを全世界のAI/ディープラーニング開発者向けに提供開始したと発表した。
開発者は、NGCに登録してアカウントを作成すれば、幅広いディープラーニングフレームワーク、NVIDIAのライブラリ、CUDAのランタイム版を統合、最適化した、コンテナ化されたソフトウェアスタックを無料でダウンロードし、使用できる。これらは、最新の状態に保たれており、クラウドや「NVIDIA DGX」システムでシームレスに動作する。
このソフトウェアスタックは、リリースされたばかりのAmazon Elastic Compute Cloud(Amazon EC2)の「P3」インスタンスで利用することもできる。P3インスタンスは、「NVIDIA Tesla V100」GPUを最大8個搭載する。NVIDIAは近いうちに他のクラウドプラットフォームもサポートする計画だ。
NVIDIAは、NGCコンテナレジストリの主なメリットとして以下を挙げている。
- 広く使われているGPUアクセラレーテッドフレームワークにすぐにアクセスできる
NGCコンテナレジストリからダウンロードできるコンテナ化されたソフトウェアには、NVCaffe、Caffe2、Microsoft Cognitive Toolkit(CNTK)、DIGITS、MXNet、PyTorch、TensorFlow、Theano、Torchに加え、アプリケーション開発用にCUDAが含まれている。
- NVIDIAがチューニング、テスト、動作確認済み
NGCコンテナレジストリで提供されるソフトウェアは、高いパフォーマンスを発揮するようにNVIDIAがチューニング、テスト、動作確認を行っている。
- 統合済み
ユーザーは、使いやすいコンテナにより、ディープラーニングジョブをすぐに開始でき、面倒で時間がかかるソフトウェア統合を自分で行わずに済む。
- 最新
NGCコンテナレジストリで利用できるコンテナは、NVIDIAが継続的に開発を行っていることによる恩恵を受ける。各ディープラーニングフレームワークは、最新のNVIDIA GPU上で最大限高速に訓練を行えるようチューニングされている。また、NVIDIAのエンジニアはライブラリ、ドライバ、コンテナを継続的に最適化し、更新プログラムを毎月提供する。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- マイクロソフト、GPUインスタンスに新シリーズ「Azure ND/NC_v2」を追加 Tesla P40/P100を採用
マイクロソフトは、HPC向けのGPU搭載Azure仮想マシンに新シリーズ「Azure ND」および「Azure NC_v2」を追加すると発表。2017年内に提供を開始する。 - IBM Bluemixのベアメタルサーバに「Tesla P100」搭載GPUオプションを追加 2017年4月中に開始
IBM Bluemixのベアメタルサーバサービスに、「NVIDIA Tesla P100」を搭載するオプションが追加される。主要グローバルクラウドプロバイダーで初とし、2017年4月中に提供を開始する。 - IDCフロンティア、「NVIDIA Tesla P100」搭載GPUサーバの時間課金制サービスを開始 1時間440円から
IDCフロンティアが「NVIDIA Tesla P100」搭載のハイエンドGPUサーバを時間課金単位で利用できるサービスを開始。初期費用不要で、利用料金は1時間当たり440円から。料金の月額上限も設ける。 - 仮想マシンにNVIDIA Tesla K80 GPUをアタッチ、GCPでパブリックベータ提供開始
米グーグルは、クラウドサービスGoogle Cloud Platform(GCP)で、NVIDIA Tesla K80 GPUのパブリックベータ提供を開始したことを明らかにした。提供リージョンは「us-east1(サウスカロライナ州バークレー)」「asia-east1(台湾)」「europe-west1(ベルギー サン・ギスラン)」。