NVIDIA、VMware vSphere上でのGPU共有/集約による機械学習/AIを実現する「NVIDIA vComputeServer」を発表「パススルーではない」

NVIDIAは2019年8月26日(米国時間)、機械学習/AI処理を目的とした、仮想GPU技術「NVIDIA vComputeServer」を、他のプラットフォームに先駆けて、VMware vSphereで提供すると発表した。また、NVIDIAとVMwareは、同じ仕組みをVMware Cloud on AWS上のサービスとして提供する意向を発表した。

» 2019年08月27日 06時00分 公開
[三木泉@IT]

この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。

 NVIDIAは2019年8月26日(米国時間)、機械学習/AI処理を目的とした、仮想GPU技術「NVIDIA vComputeServer」を、他のプラットフォームに先駆けて、VMware vSphereで提供すると発表した。また、NVIDIAとVMwareは、同じ仕組みをVMware Cloud on AWS上のサービスとして提供する意向を発表した。前者は2019年8月に提供開始する。後者の提供開始時期は未定。

 vComputeServerにより、vSphereプラットフォーム上で動作する仮想マシン、さらにその上のコンテナは、物理サーバに搭載したNVIDIA GPUのリソースを活用できる。単一GPUを単一の仮想マシンが専有利用する、いわゆる「パススルー」ではない。単一のGPUを複数の仮想マシンで共同利用するGPU共有(GPUシェアリング)、および複数のGPUを単一の仮想マシンで専有利用するGPU集約(GPUアグリゲーション)が活用できる。

NVIDIA vComputeServerが対応する最初のプラットフォームはVMware vSphere(ESXiハイパーバイザー)

 vComputeServerは「NVIDIA T4」「NVIDIA V100」「Quadro RTX 8000/6000」、および「NVIDIA P40/P100/P60」に対応するという。vComputeServerでは、機械学習/AIのためのGPUアクセラレーションを迅速に活用できるソフトウェア群「NVIDIA NGC」を活用できる。

 NIVIDIAは、今回のvSphere対応により、オンプレミスデータセンターで、柔軟にGPUリソースを活用できるようになると強調している。vSphereのライブマイグレーション機能である「VMware vMotion」にも対応。このため、稼働中の仮想マシンを停止することなく物理サーバをまたがって移動し、再設定なしに移動先のGPUを活用できる。

Copyright © ITmedia, Inc. All Rights Reserved.

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。