スーパーコンピュータ関連の発表が続いている。その多くが「人工知能」をターゲットにしているようだ。人工知能向けのスーパーコンピュータとはどのようなものなのか、最近の発表から見ていこう。
このところ国内のスーパーコンピュータ(スパコン)関連の発表が続けざまに何本か出ていたのでブックマークしておいた。
スパコンというと、理化学研究所の「京(けい)」の開発の際に、事業仕分けで「2位じゃダメなんですか」で注目されたが、今回ブックマークしてあるものは、世界1位を狙うというような華々しい発表ではない。予算規模も「京」ほどは大きくないので、「先端かもしれないが地味な発表」という感じでそれほど注目されなかったように見える。
しかし、「業界」といってもスパコン業界だけでなく、一般のデータセンターやIT企業にまで波及するような奥深いトレンドを反映しているという意味では、悪いが袋小路にはまり込んでしまったように見える「京」の路線よりはよほど意義深いものにも思えるのだ。
時系列は前後するが、まず東京工業大学(東工大)の「TSUBAME 3.0」の発表を取り上げたい。TSUBAMEシリーズは東工大のフラグシップマシンであり、今回の3.0の前には、稼働中の2.5があった。その2.5は、2.0を改造して作ったといういきさつもある。
TSUBAME 3.0は、2.5を生かしたままで、その横のスペースに新設する、という発表だった。この位置付けを見ていると、既存の機種の拡張か更新といった感じにも読める。また狙っている性能レンジを見ると、国内最速の東大+筑波大のフラグシップマシン「Oakforest-PACS」や2位の「京」(今では国内でも2位)と比べても遜色のない高性能機を東工大も持っておきたい、という感じにも読める。しかしニュースリリース文が最大の売りにしているのは「半精度演算性能47.2ペタフロップス」という点である(東京工業大学のニュースリリース「東工大のスパコンTSUBAME3.0が今夏稼働開始」)。
半精度演算性能とは何か? プログラムを書かない人のために注釈しておくと、通常の科学技術計算(物理だとか、気象だとか、地球科学)では、double(ダブル)型の浮動小数を使うことが多いようだ。その大きさは64bitである。
その半分のfloat(フロート)型の浮動小数というものもあり、これは32bitである。計算するのも、記憶するのも、半分のサイズで手軽なのだが、スパコンでやらないとならないような科学技術計算には向かない。
しかし今回の売りは、さらにその半分の16bitの浮動小数点演算なのである。パソコンでも普通は使わない小さいサイズだ。ますますもって科学技術計算には向かないはずだ。何に使うかといえば「人工知能」である。さらに絞っていえば、ディープラーニングである。
ディープラーニングではごくごく狭い範囲の数値で計算が進むので、半精度浮動小数点が活用できる。逆にディープラーニング用途がなければ、そんなものは見向きもされなかったし、昔のスパコン本流だったら不要なものだ。つまり、東工大の発表は、「ディープラーニングに向いたスパコンをやる」というものでもあるのだ。
スパコンには、幾つかの流派というべきものがある。その中で東工大のTSUBAMEシリーズはアクセラレータ派に属する。それに対して、スパコンの保守本流ともいうべき流派は、非アクセラレータ派であり、「京」などはその代表格である。
アクセラレータというのは、多くの場合GPU(グラフィックスプロセッシングユニット)なのだが、比較的規模の小さいスパコン(当然予算も少なめ)であっても、より大規模なスパコン(当然予算も多い)に匹敵するような最高性能を絞り出したいときに選択されることが多い。例えて言えば、小さい車に大排気量のエンジンを取り付けてドラッグレースに臨むような感じか。
しかし、プロセッサ側だけでなく、アクセラレータ側にも別のプログラムを準備しなければならない面倒さとか、チューニングのしにくさとか、さらに言えば、昔のGPUはdouble型の性能がfloat型に比べて極端に低い、といったもろもろの事情があり、長らく主流派にはなれずにいたのだ。
今や事情は変わった。人工知能をやらずんばコンピュータにあらず、といった昨今の潮流は、明らかに、東工大が長年技術を熟成してきたアクセラレータ派に追い風となってきている。半精度の性能の高さが売りだが、この世代のGPUはdouble型の性能も昔に比べると各段に向上している。「通常の」用途でも以前の機種より高性能であることは言うまでもない。
TSUBAME 3.0の発表の後、富士通が理化学研究所向けに「ディープラーニング解析システム」を構築というニュースリリースが出ている(富士通のニュースリリース「理化学研究所様の国内最大規模のAI研究専用システム『ディープラーニング解析システム』を構築」)。「ディープラーニング解析システム」の発表は後になったが、稼働はTSUBAME 3.0より先になる。
「人工知能研究専用のスーパーコンピュータとしては稼働時点において国内最大規模」というのがキャッチフレーズだ。規模的にはTSUBAME 3.0よりは何段階か小ぶりなマシンだが、NVIDIAのGPUを搭載した構成という点ではかなり共通要素が多い。このマシンは、NVIDIA製のサーバ機「NVIDIA DGX-1(Pascal世代のGPUモジュールを8個搭載している)」を主力の計算要素として24台並べている。
本家のNVIDIAは、同じ「NVIDIA DGX-1」を125台並べた「SaturnV」というマシンを作り、2016年11月にスパコンの消費電力当たりの性能ランキングで1位を奪取している。蛇足だが、ある世代以上の年代の人々は、「SaturnV」という名前からアポロ計画に使われた史上最大のロケットを想像するだろう。何を思ってNVIDIAがそういう名前を付けたのか、詳しい理由を知りたいものだ。まぁ、この富士通が理研に納めるマシンは、「SaturnV」と比べるとスパコンとしては随分小ぶりだが、他の用途ではないディープラーニング専用機という点では、確かに国内最速なのだと思う。
もう一つ、2017年1月に早稲田大であった国際ワークショップで発表されたPezyグループの「ZettaScaler-2.0」についても話しておきたい(「International Workshop on A Strategic Initiative of Computing: Systems and Applications (SISA): Integrating HPC, Big Data, AI and Beyond」。こちらはだいぶ前からロードマップが何度か語られていたものだが、20〜30ペタフロップスの性能で年内に登場という。一応、「If everything goes well(順当に行けば)」と前置きが書かれているが。
2016年、前述の「NVIDIA SaturnV」に奪取された電力効率世界一の座を奪還するためには、これの登場が必須だろう。このマシンは、GPUではないのだが、自社の「PEZY-SC2」というチップをアクセラレータとして使った、やはりアクセラレータ機である。Pezyグループは、スパコンで「一番」も狙っているが、AI(人工知能)向けも狙っているのは周知の通りである。
こうしてみると、スパコン「も」人工知能という流れは明らかじゃないかと思う。従来型の科学技術計算と人工知能の二兎を追う形の構成がよいのか、割り切ってしまって人工知能専用にするのかは、検討の余地があるだろう。が、人工知能への応用では従来非主流派だったアクセラレータ構成が主流になりそうな気配が濃厚だ。
そして、大規模なデータ解析に人工知能技術を適用するためのツールやフレームワークといったものが、それこそ雨後の筍のように登場している。データセンター側のアプリケーションでも、人工知能の占める割合はどんどん増加しているように思われる。
今までにもデータセンターにアクセラレータ付きのノードが存在しないわけではなかったが、スパコンで広まりつつあるアクセラレータタイプのノードが、データセンターなどへも広く展開してくることになるのではないかと予想されるのだ。市場は大きい。2017年当たりはデータ向けAIアクセラレータで、主要ベンダーの激突が見られるのではないか。緒戦はNVIDIA有利に進んでいるが、ひっくり返すところが現れるか。
日本では数少ないx86プロセッサのアーキテクト。某米国半導体メーカーで8bitと16bitの、日本のベンチャー企業でx86互換プロセッサの設計に従事する。その後、出版社の半導体事業部などを経て、現在は某半導体メーカーでヘテロジニアス マルチコアプロセッサを中心とした開発を行っている。
「頭脳放談」
Copyright© Digital Advantage Corp. All Rights Reserved.