NVIDIA、生成AI向けGPU「H200」を2024年に提供開始へ高速、大容量をうたう「HBM3e」メモリを搭載

NVIDIAは、生成AIなどのハイパフォーマンスワークロード向けGPU「NVIDIA HGX H200」を発表した。

» 2023年11月29日 11時00分 公開
[@IT]

この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。

 NVIDIAは2023年11月13日(米国時間)、生成AI(人工知能)をはじめとするハイパフォーマンスワークロード向けGPU「NVIDIA HGX H200」を発表した。

 NVIDIA H200は、高速で大容量をうたう「HBM3e」メモリを搭載したNVIDIA Hopperアーキテクチャに基づくGPUだ。前世代の「NVIDIA A100」と比較して容量は約2倍(141GB)であり、帯域幅は2.4倍(4.8TB/s)のパフォーマンスを実現しているという。700億パラメータのLLM(大規模言語モデル)であるLlama 2の推論速度では、H100と比較してほぼ倍になるなど、さらなる性能向上が実現できたとしている。

Copyright © ITmedia, Inc. All Rights Reserved.

スポンサーからのお知らせPR

注目のテーマ

AI for エンジニアリング
「サプライチェーン攻撃」対策
1P情シスのための脆弱性管理/対策の現実解
OSSのサプライチェーン管理、取るべきアクションとは
Microsoft & Windows最前線2024
システム開発ノウハウ 【発注ナビ】PR
あなたにおすすめの記事PR

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。