Intelは、スティック型のディープラーニング推論キット兼AIアクセラレータ「Movidius Neural Compute Stick」をリリース。USB接続でディープニューラルネットワーク処理機能を追加できる。
Intelは2017年7月20日(米国時間)、USBスティック型のディープラーニング推論キット兼AI(Artificial Intelligence:人工知能)学習アクセラレータ「Movidius Neural Compute Stick」を発表した。同社によると、USB接続でディープニューラルネットワーク処理のAIアクセラレータ機能を追加できる、世界初の製品だという。
Movidius Neural Compute Stickは製品開発者や研究者、メーカー向けに、AIアプリケーションの開発、チューニング、デプロイの障害を軽減することを目的にした製品で、ディープラーニング推論を行うためのAIアクセラレータをUSB接続で並列追加していける。AIプラットフォーム「Intel Nervana」での人工ニューラルネットワークの訓練、AIやVR(Virtual Reality:仮想現実)、AR(Augmented Reality:拡張現実)、自動運転など新しいワークロードへのインテル Xeon スケーラブル・プロセッサーの最適化、MovidiusのVPU(Vision Processing Unit)技術によるエッジ端末へのAI利用など、AIを活用した次世代の製品やサービスに対応したツール、訓練、デプロイの包括的な選択肢を提供していく戦略の一環として展開する。
Movidius Neural Compute Stickに搭載される、Intel子会社 MovidiusのVPU技術「Myriad 2 VPU」は、1Wの消費電力で100G FLOPS(Floating-point Operations Per Second)以上の強力な性能を効率的に提供し、このVPU上で、直接リアルタイムディープニューラルネットワークの処理を実行できる。エッジ端末へAIアクセラレータを実装することで、幅広いAIアプリケーションをオフラインでデプロイすることも可能になる。主な特長は以下の通り。
ニューラルネットワーク/AIの開発は、基本的に以下2つの段階を経て行われる。
この2つ目の段階が「推論」と呼ばれる処理となる。この処理は多くのマシンリソースを必要とするため、これまではデータセンターへ送られて大規模コンピュータ上で実行されていた。これをエッジデバイス、またはデバイスの内部でネイティブに実行できるようにするのがMovidius Neural Compute Stickの狙いの1つ。エッジデバイスで実行できれば、レイテンシ、電力消費、プライバシーといった点で多くのメリットが得られるとIntelは述べている。
販売はディストリビューターを通じて行われる。参考価格は、1台79ドル(約8800円)。
Copyright © ITmedia, Inc. All Rights Reserved.