Amazon Web Services(AWS)は、「Amazon EC2」の「P3」インスタンスファミリーに新たに追加した「p3dn.24xlarge」インスタンスの正式提供を開始した。
Amazon Web Services(AWS)は2018年12月7日(米国時間)、「Amazon Elastic Compute Cloud」(Amazon EC2)の「P3」インスタンスファミリーに追加した「p3dn.24xlarge」インスタンスの正式提供を開始したと発表した。
Amazon EC2 P3インスタンスは、最新世代GPU(グラフィックスプロセッシングユニット)「NVIDIA Tesla V100 GPU」を最大8個搭載しており、機械学習(ML)やハイパフォーマンスコンピューティング(HPC)アプリケーションの強化に使用されている。p3dn.24xlargeは、P3ファミリーの最上位インスタンスであり、分散MLやHPCアプリケーションに最適化されている。構成は下記のようになっている。
AWSは、「p3dn.24xlargeは、従来のP3インスタンスと比べてネットワーク性能が高く、GPUメモリも2倍に増強され、高速ローカルインスタンスストレージも備える。このインスタンスを使用することで、開発者はシングルインスタンスのパフォーマンスを最適化できるだけでなく、ジョブを多数のインスタンス(16、32、64インスタンスなど)にスケールアウトして、MLモデルのトレーニングや、HPCシミュレーションにかかる時間を大幅に短縮できる」と説明する。
またAWSは、100Gbpsのネットワークスループットが、データ転送のボトルネック解消に役立つ他、GPUを最大限に利用して、最高のインスタンスパフォーマンスを提供できるとしている。
さらに、p3dn.24xlargeでは、GPUメモリが従来のGPU当たり16GBから32GBに倍増していることから、高度で大規模なMLモデルのトレーニングや、大規模データ(画像分類やオブジェクト検出システムのための4k画像など)のバッチ処理を柔軟に行えるという。
p3dn.24xlargeインスタンスと既存のP3インスタンスの比較は以下の通り。
インスタンスサイズ | GPUs - Tesla V100 | GPU Peer to Peer | GPUメモリ(GB) | vCPU | メモリ(GB) | ネットワーク帯域幅 | EBS帯域幅 | ローカルインスタンスストレージ |
---|---|---|---|---|---|---|---|---|
p3.2xlarge | 1 | 該当なし | 16 | 8(Broadwell) | 61 | 最大10Gbps | 1.5Gbps | 該当なし |
p3.8xlarge | 4 | NVLink | 64 | 32(Broadwell) | 244 | 10Gbps | 7Gbps | 該当なし |
p3.16xlarge | 8 | NVLink | 128 | 64(Broadwell) | 488 | 25Gbps | 14Gbps | 該当なし |
p3dn.24xlarge | 8 | NVLink | 256 | 96(Skylake) | 768 | 100Gbps | 14Gbps | 2 × 900GB NVMe SSD |
p3dn.24xlargeインスタンスは現在、米国東部(バージニア北部)および米国西部(オレゴン)リージョンで、オンデマンドインスタンス、リザーブドインスタンス、スポットインスタンスとして提供されている。
Copyright © ITmedia, Inc. All Rights Reserved.