AWSとNVIDIAは、AIインフラ分野での協業を発表した。NVIDIA H100 GPUを搭載した「EC2 P5インスタンス」の提供を始めとするさまざまな取り組みを通じて、大規模言語モデルの学習や生成系AIアプリケーションの開発に最適化した、拡張性の高いAIインフラの提供を目指すとしている。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
Amazon Web Services(AWS)とNVIDIAは2023年3月22日(米国時間)、複雑化する大規模言語モデル(LLM)の学習や生成型AI(人工知能)アプリケーションの開発に最適化した、拡張性の高いAIインフラの構築における協業を発表した。
今回の協業を通じて、AWSは、NVIDIA H100 Tensor Core CPUを搭載した「Amazon Elastic Compute Cloud」(Amazon EC2)のP5インスタンスを発表した。
P5インスタンスは、AWSの第2世代Elastic Fabric Adapter(EFA)を利用する最初のGPUベースのインスタンスだ。最大20エクサFLOPSの計算性能、3200Gbpsによる高帯域幅、低遅延のネットワーク性能を提供する。複雑化するLLMやディープラーニングモデルの構築や学習、推論に最適化されており、質問応答、コード生成、動画、画像生成、音声認識など、要求が高く計算量の多い生成系AIアプリケーションの構築を支援するという。
P5インスタンスは、EC2 UltraClustersを利用した「ハイパースケールクラスタ」にデプロイされるため、ユーザーはスーパーコンピュータクラスの性能にもアクセスできるとしている。Amazon EC2のP5インスタンスは、今後数週間の内に限定プレビューで提供を開始する予定だ。
NVIDIAのCEOであるジェンスン・ファン(Jensen Huang)氏は次のように述べている。
「生成系AIは、企業が自社の製品やビジネスモデルを再構築し、破壊される側ではなく、破壊する側になることを目覚めさせるものだ。アクセラレーテッドコンピューティングとAIはまさにちょうど良いタイミングで到来している。AWSとは長年のパートナーであり、NVIDIA GPUを提供した最初のクラウドサービスプロバイダーだ。アクセラレーテッドコンピューティングと生成系AIの活用に向けてお客さまに支援ができることを楽しみにしている」
今回の協業では、システムの熱設計の開発、統合セキュリティとシステム管理、AWS Nitroハードウェアアクセラレーションハイパーバイザーによるセキュリティ、AWSカスタムEFAネットワークファブリックのNVIDIA GPUDirectの最適化などの取り組みも進められている。
AWSとNVIDIAは今後、サーバの最適化に焦点を当てた研究を基に、次世代システム設計、冷却技術、ネットワーク拡張性によるスケーリング効率の向上などに取り組むとしている。
Copyright © ITmedia, Inc. All Rights Reserved.