AIを「100倍高速」にする方法 NVIDIAがデモ:より高速に動作するということは、より低コストで済むということ
NVIDIAが「パーソナルAIスーパコンピュータ」と位置付けるシステム「NVIDIA DGX Station」のデモを公開。GPU非搭載システムと比べて、AIを学習させる推論タスクを100倍高速に処理できるという。
NVIDIAは2017年7月25日(米国時間)、米国で開催した「Computer Vision and Pattern Recognition 2017」で、同社が“パーソナルAIスーパーコンピュータ”と位置付ける同社製GPU搭載システム「NVIDIA DGX Station」のデモを実施。AI(Artificial Intelligence:人工知能)の学習に要する推論タスクを、GPU非搭載のシステムと比べて、100倍高速に実行できるとアピールした。
このデモは、NVIDIA DGX Stationに4つ搭載されるデータセンター向けGPU「NVIDIA Tesla V100」のうち、1つだけを使い、ディープラーニング推論エンジン「NVIDIA TensorRT」を稼働して実施。推論の高速化は、訓練されたニューラルネットワークが行う判断や予測の高速化につながることから、2017年7月現在、AI研究を加速させるホットトピックと位置付けられている。
デモ動画によると、Skylake世代のCPUを搭載したGPU非搭載システムは、ニューラルネットワークモデル「ResNet」による152層の訓練済み分類ネットワークを使い、花の画像を毎秒約5枚の速度で分類している。人間による分類よりは幾分高速である。
これに対し、NVIDIA Tesla V100を使ったNVIDIA DGX Stationは、これを毎秒約527枚の速度で処理し、7ミリ秒未満のレイテンシで結果を返している。人の能力では到達できない処理速度である。
この100倍高速なパフォーマンスデモを公開した真意は、「より高速に動作するということは、より低コストで済むということ」だという。1台のNVIDIA GPU搭載システムが、CPUのみのシステム100台分と同じ作業を行えるならば、導入するサーバコストは100分の1で済む。これには電力や設置スペースなどのコストも含まれる。
また、推論処理においてCPUとGPUを比較する場合には、「レイテンシのコストも検討すべき要素」とWrnchの創業者でCEOのポール・クルスゼスキ氏は述べる。同社はNVIDIAの「Inceptionプログラム」の対象となっている新興企業だ。
WrnchはNVIDIA GPUとNVIDIA TensorRTを、最近リリースしたAIエンジン「BodySLAM」の基盤として採用している。BodySLAMは「人の身振り」などの動作をリアルタイムに読み取り、処理できることを特長とし、エンターテインメントアプリケーションや子ども向けの対話型玩具向けに採用されている。
「もしCPUしか使えないシステムだとしたら、子どもは、3秒遊ぶために1分半も待たなければならない」(クルスゼスキ氏)
NVIDIA TensorRTは、NVIDIA GPU上のAI推論の高速化に利用可能。NVIDIA Developer Programの会員向けに無料公開されている。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- NVIDIAとBaiduがAI技術分野で提携 「Project Apollo」の自動運転車開発基盤にNVIDIAのGPU技術を適用
NVIDIAと中国のBaiduがAI技術で提携。提携分野は、自動運転車、クラウドコンピューティング、教育、スマートホーム製品など、広範囲にわたる。 - ボルボとNVIDIA、自動運転技術で提携を拡大 2021年までに市場投入を目指す
スウェーデンのボルボが、自動運転車のソフトウェア開発基盤にNVIDIAの車載コンピューティングプラットフォーム「NVIDIA DRIVE PX」を採用。2021年までにAI搭載自動運転車の市場投入を目指す。 - 「AI」「機械学習」「ディープラーニング」は、それぞれ何が違うのか
「AI」「機械学習」「ディープラーニング」は、それぞれ何が違うのか。GPUコンピューティングを推進するNVIDIAが、これらの違いを背景および技術的要素で解説した。 - 今どきCPUだけで大丈夫?ビッグデータや人工知能でGPU/FPGAを使う前に知っておきたい“ハード屋”と“ソフト屋”の違い
ソフトウェア技術者の間でもGPUやFPGAに対する興味が高まっている。「ハードウェアの“特質”とは何か」「GPUやFPGAの性能を生かすソフトウェアは、どうあるべきか」@ITの人気連載「頭脳放談」の筆者に聞いた。