「Azure OpenAI Service」は1日100の新規顧客を獲得――Microsoft、AIビジネスの現在地は:NVIDIA H100 GPU搭載VMが正式リリース
Microsoftは企業のAI活用を支援するAzure AIインフラストラクチャおよびサービスの新展開を発表した。発表されたのは、Azure AIインフラストラクチャに含まれる「ND H100 v5」仮想マシンシリーズの一般提供開始と、「Azure OpenAI Service」のグローバル展開だ。
Microsoftは2023年8月7日(米国時間)、企業のAI活用を支援するAzure AIインフラストラクチャおよびサービスの新展開を発表した。発表されたのは、Azure AIインフラストラクチャ(以下、Azure AIインフラ)に含まれる「ND H100 v5」仮想マシン(VM)シリーズの一般提供開始と、「Azure OpenAI Service」のグローバル展開だ。
Azure AIインフラは、開発者がAzureプラットフォーム上でAI(人工知能)ベースの次世代アプリケーションを構築するために必要なシステム、ツール、リソースを提供する。「ND H100 v5 VM」は、NVIDIAの最新GPUと低遅延ネットワーク技術を搭載している。Azure OpenAI Serviceは、Azureプラットフォーム上でOpenAIの最先端の大規模言語モデル(LLM)である「GPT-4」や「GPT-35-Turbo」などを利用できるサービスだ。
ND H100 v5 VMの一般提供開始
ND H100 v5 VMシリーズは、最先端のAIワークロードの飛躍的に増大する複雑性に対処するため、スーパーコンピューティングのパフォーマンスとスケーラビリティを提供してきたMicrosoftの幅広い経験を基に、綿密に設計されている。現在、米国東部と米国中南部のAzureリージョンで提供されている。
ND H100 v5 VMの主な機能は以下の通り。
- AIスーパーコンピューティングGPU:8基のNVIDIA H100 Tensor コア GPUを搭載。AIモデルのパフォーマンスを従来のVMよりも大幅に向上させ、企業に比類ない計算能力を提供する
- 次世代CPU:AIのトレーニングと推論にはCPU性能が非常に重要であることを踏まえ、VMの基盤として第4世代Intel Xeon Scalableプロセッサを採用した
- 低遅延ネットワーキング:GPU当たり400Gbps、VM当たり3.2Tbpsのクロスノード帯域幅を持つNVIDIA Quantum-2 ConnectX-7 InfiniBandを採用し、GPU間でシームレスなパフォーマンスを確保している
- ホストからGPUへのパフォーマンスの最適化:PCIe Gen5によってGPU当たり64GB/秒の帯域幅を提供し、CPUとGPUの間で大幅なパフォーマンスの優位性を実現する
- 大規模なメモリとメモリ帯域幅:DDR5メモリが高いデータ転送速度と効率性を実現する
こうしたND H100 v5 VMは、新しい8bitのFP8浮動小数点データ型を使用した場合、従来のVMでFP16を使用した場合に比べて、行列乗算演算を最大6倍高速化する。BLOOM 175BのようなLLMのエンドツーエンドのモデル推論でも、最大2倍の高速化を達成しており、AIアプリケーションのさらなる最適化を実現する可能性を示している。
Azure OpenAI Serviceのグローバル展開
Microsoftはオーストラリア東部、カナダ東部、米国東部2、東日本、英国南部の各リージョンで、Azure OpenAI Serviceの提供を開始し、強力な生成AI機能を求める企業へのリーチとサポートを拡大した。これまでの米国東部、フランス中部、米国中南部、西ヨーロッパの各リージョンを使用する企業に加えて、これらのリージョンを使用する企業も、GPT-4やGPT-35-Turboなど、OpenAIの最先端モデルを利用できるようになった。これらのモデルはコンテンツ生成、ドキュメントインテリジェンス、顧客サービスなど、幅広い分野に活用できるという。
Microsoftによると、Azure OpenAI Serviceの現在の顧客数は1万1000を超えており、前回の発表時から3倍近くに増えている。第3四半期(7〜9月期)は、毎日平均100の新規顧客を獲得しているという。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- 画像生成AI「Stable Diffusion」の実行環境を構築するには? Dockerが解説
Dockerは「Stable Diffusion」の実行環境を容易に構築する方法として「Docker Desktop for Windows」および「Windows Subsystem for Linux 2(WSL2)」を活用した手順を解説した。 - 「GitHub Copilot Chat」β版公開 Visual StudioやVS CodeでAIペアプログラミングを支援
GitHubは、Visual StudioとVisual Studio Code(VS Code)で利用可能な「GitHub Copilot Chat」のβ版をGitHub Copilot for Businessユーザー向けに公開した。 - Stack Overflow、開発者向けAIサービス「OverflowAI」を発表 VS Code向け拡張機能、Slackのチャットbotを提供へ
Stack Overflowは、開発者向けQ&Aサイトで蓄積した知識ベースなどをAI/MLを用いて活用し、開発者の問題解決を支援する「OverflowAI」を発表した。