NVIDIAは、生成AIなどのハイパフォーマンスワークロード向けGPU「NVIDIA HGX H200」を発表した。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
NVIDIAは2023年11月13日(米国時間)、生成AI(人工知能)をはじめとするハイパフォーマンスワークロード向けGPU「NVIDIA HGX H200」を発表した。
NVIDIA H200は、高速で大容量をうたう「HBM3e」メモリを搭載したNVIDIA Hopperアーキテクチャに基づくGPUだ。前世代の「NVIDIA A100」と比較して容量は約2倍(141GB)であり、帯域幅は2.4倍(4.8TB/s)のパフォーマンスを実現しているという。700億パラメータのLLM(大規模言語モデル)であるLlama 2の推論速度では、H100と比較してほぼ倍になるなど、さらなる性能向上が実現できたとしている。
NVIDIAのハイパースケールおよびHPC担当バイスプレジデントのイアン・バック氏は「生成AIなどのハイパフォーマンスワークロードでは、大容量で高速なGPUメモリを使用して、膨大な量のデータを高速に処理する必要がある。NVIDIA H200により、AIスーパーコンピューティングプラットフォームはより高速になり、世界で最も重要な課題の解決に役立つだろう」と述べている。
NVIDIA H200は、4wayおよび8way構成のNVIDIA HGX H200サーバボードで利用可能になる。オンプレミス、クラウド、ハイブリッドクラウド、エッジを含むあらゆるタイプのデータセンターにNVIDIA H200を展開できると、NVIDIAは述べている。
NVIDIAは、NVIDIA H200を搭載したシステムを2024年第2四半期に提供予定とした上で、Amazon Web Services、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructureをはじめとするクラウドサービスプロバイダーが、2024年内にH200ベースのインスタンスを提供予定だと明らかにしている。
Copyright © ITmedia, Inc. All Rights Reserved.