Tesla T4がGoogle Cloud Platformで利用可能に、日本のリージョンもGPUインスタンスに対応:機械学習などに向く
NVIDIAの最新GPU「Tesla T4」がGoogle Cloud Platformで、パブリックβとして利用可能になった。利用料金はGPU1基当たり1時間0.29ドル。GPUに最適化したソフトウェアを実装したコンテナもNVIDIAのカタログであるNGCからダウンロードできる。
NVIDIAは2019年1月16日、同社の最新GPU「Tesla T4」がGoogle Cloud Platform(GCP)で、パブリックβとして利用可能になったと発表した。
同時に、同社のGPUが利用できるGCPのリージョンが増え、これまでの米国とヨーロッパに加えて、新たに日本、ブラジル、インド、シンガポールでも利用できるようになった。
GCPのプリエンプティブ仮想マシンインスタンスでT4 GPUを利用する際に必要な料金は、GPU1基当たり1時間0.29ドル。オンデマンドのインスタンスでは、GPU1基当たり1時間0.95ドルからで、最大30%の継続使用割引もある。
Google Cloudのプロダクトマネージャーを務めるChris Kleban氏は次のように述べている。
「NVIDIA K80、P4、P100、V100というGPUラインアップにT4が加わることで、ハードウェアアクセラレーションによるコンピューティングについての顧客の選択肢が広がる。T4は推論ワークロードを実行するのに最適なGPUだ。FP32(単精度浮動小数点数)に加えてFP16(半精度浮動小数点数)やINT8(8バイト整数)、INT4(4バイト整数)といった演算精度に対応し、精度と演算性能を柔軟に選択できる」
T4は、ハイパフォーマンスコンピューティング(HPC)やディープラーニングのトレーニングと推論、機械学習、データ分析、グラフィックスなどに向けた、Turing Tensorコアを採用したGPU。
演算性能は、単精度浮動小数点演算が8.1TFLOPS(Floating-point Operations Per Second)、半精度浮動小数点演算が65TFLOPS、8バイト整数演算が130TOPS(Trillion Operations Per Second:1秒間に1兆回の演算が可能)、4バイト整数演算が260TOPSと高い。
なお、GCPの新しいT4インスタンスで機械学習やHPCに向けたソフトウェアは、NVIDIAのカタログであるNVIDIA GPU Cloud(NGC)からダウンロードできる。NGCからは、機械学習向けライブラリのTensorFlowや、データサイエンス向けライブラリのRAPIDSなど、GPUに最適化したソフトウェアを実装したコンテナを入手できる。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- Google Cloud Platformで「NVIDIA Tesla T4 GPU」を用いたα版サービスを提供開始
Googleは「Google Cloud Platform」において、大手クラウドベンダーとして初めて「NVIDIA Tesla T4 GPU」を用いたサービスの提供を開始した。まずは限定的なα版サービスとして扱う。機械学習(ML)推論とモデルの分散トレーニング、コンピュータグラフィックスに最適化されているという。 - NVIDIA、AI推論プラットフォーム「NVIDIA TensorRT Hyperscale Inference Platform」を発表
NVIDIAは、音声や動画、画像、レコメンデーションサービス向けに高度な推論アクセラレーションを実現するAIデータセンタープラットフォーム「NVIDIA TensorRT Hyperscale Inference Platform」を発表した。 - Google Cloud Platform、「より低品質」なネットワークサービスの選択肢を提供
Googleは2017年08月23日(米国時間)、Google Cloud Platform(GCP)で、「Network Service Tiers」を発表した。現在全てのGCPユーザーが利用しているネットワークサービスよりも低品質なサービスの新たな提供により、ネットワークサービスを2つの「ティア(レベル)」に分割する。