検索
ニュース

「Big Sur」はニューラルネットワークシステムのためにフェイスブックが設計したハードウエアGPUをぶん回して「約6日かかる学習を0.4日に短縮」

米フェイスブックは「ニューラルネットワークシステム向け」というハードウエアアーキテクチャ「Big Sur」をオープンソースで公開した。

Share
Tweet
LINE
Hatena

 米フェイスブックは、「ニューラルネットワークシステム向け」(米フェイスブックのブログによる)のハードウエアアーキテクチャ「Big Sur」を、Open Compute Projectに提供、設計図をオープンソースで公開した。

 公開されたBig Surの設計図は、米Open Rack Projectが定めるデータセンター向けラック規格「Open Rack」に準拠したもので、米NVIDIAのGPU(Graphics Processing Unit)「Tesla M40」を最大8個搭載できる。Big Surは、NVIDIAの「Tesla Accelerated Computing Platform」を採用し、フェイスブックとNVIDIAが協力して設計を進め、最適化を施してある。その結果、前世代システムに比べ、2倍の性能向上を実現したという。

 Tesla M40は、2015年11月に発表されたばかりのGPU。NVIDIA Maxwellアーキテクチャを採用し、3072個のCUDA(Compute Unified Device Architecture)コアを備える。単精度浮動小数点演算性能は、最大7TFLOPS(テラフロップス)。「機械学習向けのアクセラレーターとして採用されたのはBig Surが初めて」(NVIDIAのプレスリリース)だという。ニューラルネットワークとは、おおまかに言えば“脳神経を模した計算アルゴリズム”のことで、多層的な機械学習を行うもの。


フェイスブック社内では「Facebook AI Research」(FAIR)でAI(人工知能)研究が行われている。画像はその成果の一つである「Memory Networks」と呼ばれる技術。質問に高度な回答ができるもので、サンプルとして「ロードオブザリング(指輪物語)」の概要を答える動画が公開されている(出典:米フェイスブック)

オペレーションでエンジニアが触れるべきところは全てパントーンの色見本「375C」の緑が指定されている(出典:米フェイスブックのブログ)

 NVIDIAによると、2.5GHz動作の12コア・プロセッサー(Xeon E5-2680 v3)を2個備える汎用サーバー機で5.9日間かかる処理が、4個のTesla M40を備えるGPUサーバーだと0.4日間で完了するという。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る