AI基盤の負荷とコスト増どう抑える? 主要テクノロジー企業が採用、NVIDIAの推論OSS「Dynamo」:「Blackwell GPU」の推論性能「最大7倍向上」をうたう
NVIDIAはAIファクトリー向け推論オープンソースソフトウェア「NVIDIA Dynamo 1.0」の一般提供を開始した。
NVIDIAは2026年3月16日(米国時間)、AIファクトリー(大規模なAI学習・推論基盤)向け推論OSS(オープンソースソフトウェア)である「NVIDIA Dynamo 1.0」の一般提供を開始した。
複数の業界でエージェント型AIシステムの本番稼働が進むにつれて、サイズやモダリティ、そしてパフォーマンス要件の異なるリクエストが、予測不能な突発的トラフィックとして押し寄せるようになった。こうした背景の下、データセンターにおける推論のスケーリングが急務であり、AIワークロードを処理するためのリソースを統合管理(オーケストレーション)することが求められている。
Dynamoは「分散OS」として機能
コンピュータのOSがハードウェアとアプリケーションを調整するように、Dynamo 1.0はAIファクトリーの分散OSのように機能し、クラスタ全体のGPUとメモリリソースを統合管理して、AIワークロードを処理するという。
NVIDIAによると、最新の業界ベンチマークにおいて、Dynamo 1.0は同社の「Blackwell GPU」の推論性能を最大7倍向上させ、トークンコストの削減に寄与したという。
NVIDIAの創業者兼CEO(最高経営責任者)のジェンスン・フアン氏は「推論は知能のエンジンであり、全てのクエリ、エージェント、アプリケーションを駆動している」とした上で、DynamoをAIファクトリー向けの基盤ソフトウェアと位置付けている。
Dynamo 1.0は推論作業をGPU間で分散させ、データをGPUと低コストのストレージ間で移動させる。これにより無駄な処理を削減し、メモリの制限を緩和する。エージェント型AIや長いプロンプトに対しては、過去のターンから最も関連性の高い「短期メモリ」を既に持っているGPUにリクエストをルーティングし、不要になったメモリをオフロードする。
Dynamoは現在、Amazon Web Services(AWS)、Microsoft Azure、Google Cloudなど主要なクラウド環境でサポートされている。
オープンソースエコシステムとの統合
NVIDIAは、DynamoとLLM(大規模言語モデル)の推論を高速化するオープンソースの高性能ライブラリ「TensorRT-LLM」を、「LangChain」「llm-d」「LMCache」「SGLang」「vLLM」などの主要フレームワークに統合している。
メモリ管理を改善する「Dynamo KV Block Manager」(KVBM)や、GPU間の高速データ転送を実現する「NVIDIA Inference Xfer Library」(NIXL)、スケーリングを簡素化する「NVIDIA Grove」などのコアモジュールは、単独で利用可能だ。
また、オープンソースフレームワークにネイティブ統合できるよう、TensorRT-LLMのCUDAカーネルを「FlashInfer」プロジェクトに提供している。
採用企業・クラウド事業者
NVIDIAの推論プラットフォームは、主要なクラウドサービスからAIネイティブ企業まで、AIエコシステム全体で幅広くサポートされている。AIワークロードを支える基盤として、以下の主要企業・サービスが同プラットフォームを採用している。
- クラウドサービスプロバイダー
- AWS、Microsoft Azure、Google Cloud、OCI(Oracle Cloud Infrastructure)
- NVIDIAクラウドパートナー
- Alibaba Cloud、CoreWeave、Together AI、Nebiusなど
- AIネイティブ企業
- Cursor(Anysphere)、Hebbia、Perplexity
- 推論エンドポイントプロバイダー
- Baseten、Deep Infra、Fireworks AI
- グローバル企業
- AstraZeneca、BlackRock、ByteDance、PayPal、Pinterest、SoftBankなど
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
生成AIは幻滅期、AIエージェントは「過度な期待」のピーク ガートナー「未来志向型インフラテクノロジーのハイプ・サイクル」
ガートナージャパンは「2025年の日本における未来志向型インフラテクノロジーのハイプ・サイクル」を発表した。未来志向型と捉えられる技術やトレンドとなっている35のキーワードを取り上げた。
A2AとMCPで異なる企業のAIエージェントを連携させるサービス アクセンチュアが提供開始
アクセンチュアは、異なる企業が提供するAIエージェントを連携させる「Trusted Agent Huddle」を発表した。特定のタスクやビジネス目標に応じて最適なAIエージェントを選択し、それらを管理できるようになるという。
「実は知らない」とは言いづらい「AIエージェント」の基礎を把握する
IT用語の基礎の基礎を、初学者や非エンジニアにも分かりやすく解説する本連載、第30回は「AIエージェント」です。ITエンジニアの学習、エンジニアと協業する業務部門の仲間や経営層への解説にご活用ください。
普通の企業で「コーディングエージェント」を定着させるための3ステップ OpenAI Japan瀬良氏が説明
生成AIが外部のツールやデータを駆使し、複数のステップを自律的に実行できるAIエージェントへと進化する今、コード補完や不具合の修正といった補助ツールとしての位置付けのままでは真の価値を引き出すのは困難だ。OpenAI Japanの瀬良氏がコーディングエージェントの真の価値を引き出し、組織に定着させるための「3つのステップ」を解説した。
AIコーディングツールに約7割が不満 「意図通りに出ない」「精度も低い」
キッカケクリエイションの調査によると、AIコーディングアシスタントツールの利用で9割弱が生産性向上を実感している一方で、約7割が課題や不満を感じていることが分かった。利用の実態を探る。