検索
ニュース

AIを「100倍高速」にする方法 NVIDIAがデモより高速に動作するということは、より低コストで済むということ

NVIDIAが「パーソナルAIスーパコンピュータ」と位置付けるシステム「NVIDIA DGX Station」のデモを公開。GPU非搭載システムと比べて、AIを学習させる推論タスクを100倍高速に処理できるという。

Share
Tweet
LINE
Hatena

 NVIDIAは2017年7月25日(米国時間)、米国で開催した「Computer Vision and Pattern Recognition 2017」で、同社が“パーソナルAIスーパーコンピュータ”と位置付ける同社製GPU搭載システム「NVIDIA DGX Station」のデモを実施。AI(Artificial Intelligence:人工知能)の学習に要する推論タスクを、GPU非搭載のシステムと比べて、100倍高速に実行できるとアピールした。

 このデモは、NVIDIA DGX Stationに4つ搭載されるデータセンター向けGPU「NVIDIA Tesla V100」のうち、1つだけを使い、ディープラーニング推論エンジン「NVIDIA TensorRT」を稼働して実施。推論の高速化は、訓練されたニューラルネットワークが行う判断や予測の高速化につながることから、2017年7月現在、AI研究を加速させるホットトピックと位置付けられている。

AI Inferencing at the Speed of Light(YouTube/NVIDIAチャンネル)

 デモ動画によると、Skylake世代のCPUを搭載したGPU非搭載システムは、ニューラルネットワークモデル「ResNet」による152層の訓練済み分類ネットワークを使い、花の画像を毎秒約5枚の速度で分類している。人間による分類よりは幾分高速である。

 これに対し、NVIDIA Tesla V100を使ったNVIDIA DGX Stationは、これを毎秒約527枚の速度で処理し、7ミリ秒未満のレイテンシで結果を返している。人の能力では到達できない処理速度である。

photo 「NVIDIA DGX Station」のWebサイト

 この100倍高速なパフォーマンスデモを公開した真意は、「より高速に動作するということは、より低コストで済むということ」だという。1台のNVIDIA GPU搭載システムが、CPUのみのシステム100台分と同じ作業を行えるならば、導入するサーバコストは100分の1で済む。これには電力や設置スペースなどのコストも含まれる。

 また、推論処理においてCPUとGPUを比較する場合には、「レイテンシのコストも検討すべき要素」とWrnchの創業者でCEOのポール・クルスゼスキ氏は述べる。同社はNVIDIAの「Inceptionプログラム」の対象となっている新興企業だ。

 WrnchはNVIDIA GPUとNVIDIA TensorRTを、最近リリースしたAIエンジン「BodySLAM」の基盤として採用している。BodySLAMは「人の身振り」などの動作をリアルタイムに読み取り、処理できることを特長とし、エンターテインメントアプリケーションや子ども向けの対話型玩具向けに採用されている。

 「もしCPUしか使えないシステムだとしたら、子どもは、3秒遊ぶために1分半も待たなければならない」(クルスゼスキ氏)

 NVIDIA TensorRTは、NVIDIA GPU上のAI推論の高速化に利用可能。NVIDIA Developer Programの会員向けに無料公開されている。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る