NVIDIA、AIエージェントに重要なリーズニングも高速化する「Blackwell Ultra」を発表 その特徴と性能は?リーズニングを支援するOSS「NVIDIA Dynamo」も

NVIDIAは、約1年前に発表したAIファクトリープラットフォーム「NVIDIA Blackwell」の後継となる「NVIDIA Blackwell Ultra」を発表した。

» 2025年03月25日 08時00分 公開
[@IT]

この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。

 NVIDIAは2025年3月18日(米国時間、以下同)、約1年前に発表したAI(人工知能)ファクトリープラットフォーム「NVIDIA Blackwell」の後継となる「NVIDIA Blackwell Ultra」を発表した。

 Blackwellアーキテクチャを基に構築されたBlackwell Ultraは、トレーニングとテストタイムスケーリング推論(※)を強化し、あらゆる組織におけるAIリーズニング、エージェント型AI、フィジカルAIなどのアプリケーションの高速化を可能にし、AIリーズニング時代への道を開くとしている。

(※)推論時により多くのコンピューティングを適用して精度を向上させる技術

Blackwell Ultraの特徴と性能

 Blackwell Ultraには、「NVIDIA GB300 NVL72」ラックスケールソリューションと「NVIDIA HGX B300 NVL16」システムが含まれている。GB300 NVL72は、既存の「GB200 NVL72」の1.5倍のAIパフォーマンスを実現し、「NVIDIA Hopper」アーキテクチャに基づくシステムで構築されたAIファクトリーと比較して、Blackwellの収益機会を50倍に増加させる。

 GB300 NVL72は、ラックスケールデザインで72基のBlackwell Ultra GPUと36基の「Arm Neoverse」ベースの「NVIDIA Grace CPU」を接続し、テストタイムスケーリング用に構築された単一の巨大なGPUとして機能する。GB300 NVL72により、AIモデルはプラットフォームの演算能力を活用して問題に対するさまざまな解決策を模索したり、複雑なリクエストを複数のステップに分解したりすることが可能になり、より質の高い応答を生成できる。

 一方、HGX B300 NVL16は、Hopper世代と比較して、大規模言語モデル(LLM)での推論が11倍高速で、7倍の計算能力と4倍のメモリを搭載し、AIリーズニングなど最も複雑なワークロードで画期的なパフォーマンスを提供する。

Blackwell Ultraが最適なアプリケーション

 NVIDIAによると、Blackwell Ultraプラットフォームは、以下のようなアプリケーションに最適だ。

エージェント型AI

 高度なリーズニングと反復的な計画立案を実行し、複雑な多段階の問題を自律的に解決する。AIエージェントシステムは単に指示に従うだけでなく、特定の目標を達成するために論理的にリーズニングを行い、計画を立て、行動できる。

フィジカルAI

 企業はロボットや自動運転車などのアプリケーションの大規模なトレーニング用に、フォトリアルなビデオをリアルタイムで生成できるようになる。

Blackwell Ultraのスケールアウトインフラおよびネットワーキング

 Blackwell Ultraシステムは、「NVIDIA Spectrum-X」イーサネットおよび「NVIDIA Quantum-X800 InfiniBand」プラットフォームとシームレスに統合されており、「NVIDIA ConnectX-8 SuperNIC」を介してシステム内の各GPUに800Gbpsのデータスループットをもたらす。これにより、クラス最高のリモートダイレクトメモリアクセス(RDMA)が実現され、AIファクトリーやクラウドデータセンターがAIリーズニングモデルをボトルネックなしで処理できるようになる。

 また、Blackwell Ultraシステムに搭載されている「NVIDIA BlueField-3 DPU」は、マルチテナントネットワーキング、GPUコンピューティングの弾力性、高速データアクセス、リアルタイムのサイバーセキュリティ脅威検出といった機能を実現する。

Blackwell Ultraを採用するパートナー企業

 Blackwell Ultraをベースとした製品は、2025年後半に主要なコンピュータメーカーやクラウドサービスプロバイダーから順次提供される予定だ。

 Blackwell Ultra製品をベースとしたサーバの提供を予定するコンピュータメーカーは、以下の通り。

 Cisco Systems、Dell Technologies、Hewlett Packard Enterprise(HPE)、Lenovo、Supermicro、Aivres、ASRock Rack、ASUS、Eviden、Foxconn、GIGABYTE、Inventec、Pegatron、QCT、Wistron、Wiwynn。

 Blackwell Ultra搭載インスタンスをいち早く提供する予定のクラウドサービスプロバイダー:Amazon Web Services(AWS)、とGPUクラウドプロバイダーは、以下の通り。

  • クラウドサービスプロバイダー:AWS、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructure
  • GPUクラウドプロバイダー:CoreWeave、Crusoe、Lambda、Nebius、Nscale、Yotta、YTL

AIのボトルネックを軽減する推論フレームワーク「NVIDIA Dynamo」

 Blackwellの製品ポートフォリオは、フルスタックのNVIDIA AIプラットフォームによってサポートされている。NVIDIAが2025年3月18日に発表したオープンソース推論フレームワーク「NVIDIA Dynamo」は、リーズニングAIサービスを拡張する。テストタイムコンピューティングの最も効率的なソリューションを提供することで、応答時間を短縮してモデルのサービスコストを削減すると同時に、スループットを飛躍的に向上させる。

 AIリーズニングを支援するソフトウェアであるNVIDIA Dynamoは、数千のGPUにわたる推論の通信をオーケストレーションして加速し、分散処理により、LLMの処理および生成フェーズを異なるGPU上に分離する。これにより、各フェーズを特定のニーズに合わせて個別に最適化して、GPUリソースを最大限に活用することが可能になる。

Copyright © ITmedia, Inc. All Rights Reserved.

スポンサーからのお知らせPR

Smart & Social 記事ランキング

本日月間

注目のテーマ

4AI by @IT - AIを作り、動かし、守り、生かす
Microsoft & Windows最前線2025
AI for エンジニアリング
ローコード/ノーコード セントラル by @IT - ITエンジニアがビジネスの中心で活躍する組織へ
Cloud Native Central by @IT - スケーラブルな能力を組織に
システム開発ノウハウ 【発注ナビ】PR
あなたにおすすめの記事PR

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。