検索
ニュース

AWS、「Amazon EC2 Capacity Blocks for ML」を提供開始、機械学習に必要なGPUを短期間利用可能にNVIDIA H100 Tensor Core GPU搭載インスタンスを提供

AWSは、「Amazon Elastic Compute Cloud」(Amazon EC2)の新しい利用モデルである「Amazon EC2 Capacity Blocks for ML」の一般提供を開始した。

Share
Tweet
LINE
Hatena

 Amazon Web Services(AWS)は2023年10月31日(米国時間)、「Amazon Elastic Compute Cloud」(Amazon EC2)の新しい利用モデルである「Amazon EC2 Capacity Blocks for ML」の一般提供を開始したと発表した。

 顧客はEC2 Capacity Blocks for MLにより、高パフォーマンスのML(機械学習)ワークロード用に設計されたAmazon EC2 UltraClustersにコロケーションされた数百のNVIDIA GPUを予約できる。

 クラスタサイズ、将来の使用開始日、使用期間を指定することで、NVIDIA H100 Tensor Core GPUを搭載した「Amazon EC2 P5」インスタンスでEC2 Capacity Blocks for MLを使用できる。Amazon EC2 P5は、最新世代のGPUベースの高速コンピューティングインスタンスであり、ディープラーニングとハイパフォーマンスコンピューティング(HPC)において、Amazon EC2の中で最高のパフォーマンスを発揮するという。

 EC2 Capacity Blocks for MLは、希望する使用開始日の8週間前から予約でき、使用期間は1〜14日、クラスタサイズは1〜64インスタンス(512 GPU)で指定することが可能だ。

EC2 Capacity Blocks for MLを導入した背景

 AWSがEC2 Capacity Blocks for MLを導入した背景には、MLの進歩に伴い、多くの企業が商品開発やビジネス変革などにMLを利用するようになったことが挙げられる。MLモデルのトレーニング、微調整、実験、推論を行うためのGPU容量の需要の伸びが、業界全体の供給を上回っており、GPUが希少なリソースとなっているという。

 「その結果、最新のML技術を利用したいと考える顧客、特に、導入段階によって容量ニーズが変動する顧客は、MLワークロードの実行に必要なGPUクラスタへのアクセスが困難になるかもしれない。あるいは、顧客は大量のGPU容量を長期間分、購入するかもしれないが、結局あまり使わず、アイドル状態になってしまう可能性もある。顧客は、長期間の利用を確約することなく、必要なGPU容量をより柔軟に、より高い予測精度でプロビジョニングする方法を探している」と、AWSは説明している。

 EC2 Capacity Blocks for MLを利用すれば、MLワークロードの実行に必要なGPU容量を短期間だけ確保でき、使用していないGPU容量を保持する必要がなくなる。EC2 Capacity Blocks for MLはAmazon EC2 UltraClustersに展開され、第2世代Elastic Fabric Adapter(EFA)によるペタビットスケールネットワーキングで相互接続される。これにより、低レイテンシで高スループットの接続が確保され、数百のGPUまでスケールアップできる。

EC2 Capacity Blocks for MLの利用と料金

 顧客は、AWS管理コンソール、CLI(コマンドラインインタフェース)、またはSDKを使用して、利用可能なEC2 Capacity Blocks for MLを見つけて予約できる。顧客は予約した時間分だけ料金を支払う。EC2 Capacity Blocks for MLは、AWSの米国東部(オハイオ)リージョンで提供されており、他のAWSリージョンやローカルゾーンでも利用可能になる予定だ。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る