米フェイスブックは「ニューラルネットワークシステム向け」というハードウエアアーキテクチャ「Big Sur」をオープンソースで公開した。
米フェイスブックは、「ニューラルネットワークシステム向け」(米フェイスブックのブログによる)のハードウエアアーキテクチャ「Big Sur」を、Open Compute Projectに提供、設計図をオープンソースで公開した。
公開されたBig Surの設計図は、米Open Rack Projectが定めるデータセンター向けラック規格「Open Rack」に準拠したもので、米NVIDIAのGPU(Graphics Processing Unit)「Tesla M40」を最大8個搭載できる。Big Surは、NVIDIAの「Tesla Accelerated Computing Platform」を採用し、フェイスブックとNVIDIAが協力して設計を進め、最適化を施してある。その結果、前世代システムに比べ、2倍の性能向上を実現したという。
Tesla M40は、2015年11月に発表されたばかりのGPU。NVIDIA Maxwellアーキテクチャを採用し、3072個のCUDA(Compute Unified Device Architecture)コアを備える。単精度浮動小数点演算性能は、最大7TFLOPS(テラフロップス)。「機械学習向けのアクセラレーターとして採用されたのはBig Surが初めて」(NVIDIAのプレスリリース)だという。ニューラルネットワークとは、おおまかに言えば“脳神経を模した計算アルゴリズム”のことで、多層的な機械学習を行うもの。
NVIDIAによると、2.5GHz動作の12コア・プロセッサー(Xeon E5-2680 v3)を2個備える汎用サーバー機で5.9日間かかる処理が、4個のTesla M40を備えるGPUサーバーだと0.4日間で完了するという。
Copyright © ITmedia, Inc. All Rights Reserved.