USBスティックでディープラーニングを実現 Intelが新製品「Movidius Neural Compute Stick」をリリース:エッジ端末へAIアクセラレータを容易に追加できる
Intelは、スティック型のディープラーニング推論キット兼AIアクセラレータ「Movidius Neural Compute Stick」をリリース。USB接続でディープニューラルネットワーク処理機能を追加できる。
Intelは2017年7月20日(米国時間)、USBスティック型のディープラーニング推論キット兼AI(Artificial Intelligence:人工知能)学習アクセラレータ「Movidius Neural Compute Stick」を発表した。同社によると、USB接続でディープニューラルネットワーク処理のAIアクセラレータ機能を追加できる、世界初の製品だという。
Movidius Neural Compute Stickは製品開発者や研究者、メーカー向けに、AIアプリケーションの開発、チューニング、デプロイの障害を軽減することを目的にした製品で、ディープラーニング推論を行うためのAIアクセラレータをUSB接続で並列追加していける。AIプラットフォーム「Intel Nervana」での人工ニューラルネットワークの訓練、AIやVR(Virtual Reality:仮想現実)、AR(Augmented Reality:拡張現実)、自動運転など新しいワークロードへのインテル Xeon スケーラブル・プロセッサーの最適化、MovidiusのVPU(Vision Processing Unit)技術によるエッジ端末へのAI利用など、AIを活用した次世代の製品やサービスに対応したツール、訓練、デプロイの包括的な選択肢を提供していく戦略の一環として展開する。
Movidius Neural Compute Stickに搭載される、Intel子会社 MovidiusのVPU技術「Myriad 2 VPU」は、1Wの消費電力で100G FLOPS(Floating-point Operations Per Second)以上の強力な性能を効率的に提供し、このVPU上で、直接リアルタイムディープニューラルネットワークの処理を実行できる。エッジ端末へAIアクセラレータを実装することで、幅広いAIアプリケーションをオフラインでデプロイすることも可能になる。主な特長は以下の通り。
- コンパイル:ディープラーニングフレームワーク「Caffe」ベースの折り畳みニューラルネットワーク(CNN)を、Movidius Myriad 2 VPU上での実行に最適化された組み込みニューラルネットワークに自動的に変換する
- チューニング:業界標準およびカスタム設計のニューラルネットワークの両方に対応するレイヤー単位の性能指標を持つことによって、低消費電力で実性能を最適化する効果的なチューニングを行う。また、開発者は検証スクリプトを使って、デバイス上の最適化モデルの精度と、オリジナルのPCベースモデルの精度を比較できる
- 高速化:Movidius Neural Compute Stickは個別にニューラルネットワーク/AIアクセラレータとして動作する。ディープラーニング推論機能を既存のコンピューティングプラットフォームに追加して高性能と省電力を実現できる
ニューラルネットワーク/AIの開発は、基本的に以下2つの段階を経て行われる。
- 機械学習技術によって、大規模なサンプルデータセットでアルゴリズムを訓練する
- 実世界のデータを解釈する必要があるエンドアプリケーションで、このアルゴリズムを実行する
この2つ目の段階が「推論」と呼ばれる処理となる。この処理は多くのマシンリソースを必要とするため、これまではデータセンターへ送られて大規模コンピュータ上で実行されていた。これをエッジデバイス、またはデバイスの内部でネイティブに実行できるようにするのがMovidius Neural Compute Stickの狙いの1つ。エッジデバイスで実行できれば、レイテンシ、電力消費、プライバシーといった点で多くのメリットが得られるとIntelは述べている。
販売はディストリビューターを通じて行われる。参考価格は、1台79ドル(約8800円)。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- 「AI」「機械学習」「ディープラーニング」は、それぞれ何が違うのか
「AI」「機械学習」「ディープラーニング」は、それぞれ何が違うのか。GPUコンピューティングを推進するNVIDIAが、これらの違いを背景および技術的要素で解説した。 - インテル、大規模なAI戦略を発表 AIプラットフォーム「Intel Nervana」を投入
インテルがAIの活用促進に向けた新しい製品、技術、投資計画を多数発表。AIの包括プラットフォーム「Intel Nervana」を中心に展開する。 - 新世代Xeon「インテル Xeon スケーラブル・プロセッサー」登場 Dell EMC、富士通、レノボなどが新世代サーバをリリース
インテルが新世代Xeon「インテル Xeon スケーラブル・プロセッサー」を正式に発表。Dell EMC、QCT、富士通、レノボなどのハードウェアベンダーも、新Xeonを採用した製品群をリリースする。 - Intelが進める「2025年、800億台超のIoTデバイス」を支える新技術──COMPUTEX TAIPEI 2017発表内容まとめ
IntelがCOMPUTEX TAIPEI 2017で、最大18コアのCore Xプロセッサー、カードサイズのIoTコンピュートモジュール、3D NAND技術を採用した第2世代のデータセンター向けSSDなどを発表。基調講演のハイライトをまとめた。 - インテル、「完全自動運転技術」に2億5000万ドル以上を新規投資へ
インテルのブライアン・クルザニッチCEOが「LAオートショー」の基調講演で、自動運転車の技術に今後2年間で2億5000万ドル(約270億円)の新規投資を行うと発表。自動車業界と連携して、「完全自動運転」の実現を目指す。