NVIDIAは2019年8月26日(米国時間)、機械学習/AI処理を目的とした、仮想GPU技術「NVIDIA vComputeServer」を、他のプラットフォームに先駆けて、VMware vSphereで提供すると発表した。また、NVIDIAとVMwareは、同じ仕組みをVMware Cloud on AWS上のサービスとして提供する意向を発表した。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
NVIDIAは2019年8月26日(米国時間)、機械学習/AI処理を目的とした、仮想GPU技術「NVIDIA vComputeServer」を、他のプラットフォームに先駆けて、VMware vSphereで提供すると発表した。また、NVIDIAとVMwareは、同じ仕組みをVMware Cloud on AWS上のサービスとして提供する意向を発表した。前者は2019年8月に提供開始する。後者の提供開始時期は未定。
vComputeServerにより、vSphereプラットフォーム上で動作する仮想マシン、さらにその上のコンテナは、物理サーバに搭載したNVIDIA GPUのリソースを活用できる。単一GPUを単一の仮想マシンが専有利用する、いわゆる「パススルー」ではない。単一のGPUを複数の仮想マシンで共同利用するGPU共有(GPUシェアリング)、および複数のGPUを単一の仮想マシンで専有利用するGPU集約(GPUアグリゲーション)が活用できる。
vComputeServerは「NVIDIA T4」「NVIDIA V100」「Quadro RTX 8000/6000」、および「NVIDIA P40/P100/P60」に対応するという。vComputeServerでは、機械学習/AIのためのGPUアクセラレーションを迅速に活用できるソフトウェア群「NVIDIA NGC」を活用できる。
NIVIDIAは、今回のvSphere対応により、オンプレミスデータセンターで、柔軟にGPUリソースを活用できるようになると強調している。vSphereのライブマイグレーション機能である「VMware vMotion」にも対応。このため、稼働中の仮想マシンを停止することなく物理サーバをまたがって移動し、再設定なしに移動先のGPUを活用できる。
Copyright © ITmedia, Inc. All Rights Reserved.