AWSとNVIDIAは、AIインフラ分野での協業を発表した。NVIDIA H100 GPUを搭載した「EC2 P5インスタンス」の提供を始めとするさまざまな取り組みを通じて、大規模言語モデルの学習や生成系AIアプリケーションの開発に最適化した、拡張性の高いAIインフラの提供を目指すとしている。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
Amazon Web Services(AWS)とNVIDIAは2023年3月22日(米国時間)、複雑化する大規模言語モデル(LLM)の学習や生成型AI(人工知能)アプリケーションの開発に最適化した、拡張性の高いAIインフラの構築における協業を発表した。
今回の協業を通じて、AWSは、NVIDIA H100 Tensor Core CPUを搭載した「Amazon Elastic Compute Cloud」(Amazon EC2)のP5インスタンスを発表した。
Copyright © ITmedia, Inc. All Rights Reserved.