解説

サーバ・クラスタリングで注目される高速I/Oテクノロジ「InfiniBand」

―― 帯域幅やレーテンシにおいて、既存技術を大きく凌駕 ――

元麻布春男
2003/04/25

解説タイトル


 かつてInfiniBand(用語解説参照)は、サーバの統合的なI/Oソリューションだと考えられていた。まだNGIO(Next Generation I/O)と呼ばれていた1999年当時はもちろんのこと、IBMやCompaq(当時)が対抗技術として推していたFuture I/Oと一本化され、名称がSystem I/Oとなっても、その方向性は変わらなかった。その後、名称はInfiniBandに変わり、現在に至るわけだが、状況は少々変化している。InfiniBandが、「サーバの内部I/Oと外部I/Oの両方を担う主要技術」になり得ることに変わりはないものの、実際の製品においてはかなり用途が限られているようだ。ここ1年ほどのInfiniBandの動向を振り返り、IDF Japan 2003で来日したIntelでInfiniBandを担当するアリソン・クライン(Allyson Klein)氏に現状についてお話いただいた内容をまとめることにする。クライン氏は、InfiniBandがNGIOと呼ばれていたころから、この技術(ならびに現在はPCI Expressも)のマーケティングを担当している。

InfiniBand
 サーバ向け高速I/O規格。大量のデータをデバイス間で転送する必要があるサーバ向けに、より大きな帯域幅を実現し、I/O処理をボトルネックにすることなく、各デバイスの性能を引き出せるようにすることを目的としている。当初、サーバ向けI/O規格として、Intelを中心としたメンバーが規格化を行っていた「NGIO(Next Generation I/O)」と、IBMやCompaq Computer、Hewlett-PackardなどPCI-Xを推進していたメンバーが推す「Future I/O」と、別々に規格化されていた。それを「System I/O」として統合し、その後に名称を「InfiniBand」に変更して業界標準規格とした。現在では、前記メンバーが中心となって設立されたInfiniBand Trade Association(IBTA)によって規格がまとめられている。

 InfiniBandには、シリアルI/O技術が採用されており、1本のシリアル・リンクが片方向2.5Gbits/s、双方向で5Gbits/sのデータ転送を可能とする。このシリアル・リンクを必要とするデータ帯域により、1本(x1)、4本(x4)、12本(x12)束ねることができる。InfiniBandは、外部拡張インターフェイスとしての利用も可能で、銅線で最大17m、光ファイバで10kmまでの接続をサポートする。

 現在InfiniBandは、サーバ−サーバ間(クラスタリングやデータ・センター内のサーバ間接続)、サーバ−ストレージ間の接続に採用が始まっており、将来的にはブレード・サーバのバックブレーンへの適用が予定されている。

IntelとMicrosoftの開発中止の影響

 InfiniBandは、その期待の大きさと裏腹に、対応した製品はなかなか離陸していない。最初にその構想が明らかにされた1998年秋に開催されたIDF Fall 1998から足掛け5年が経過しつつある現在、確かにInfiniBandに対応した製品はリリースされているものの、市販の商業製品というよりも、実験的にリリースされている感が否めない。

 何よりInfiniBandにとって大きなマイナスとなったのは、NGIOを提唱したIntel自身の方針転換だろう。Intelは、PCIバスの後継となる内部I/O技術として3GIO(現在はPCI Expressと呼ばれる)を提唱、サーバとクライアントPCに共通の統合された第3世代I/O技術に位置付けた。それにより、サーバにおけるInfiniBandは、PCI Expressに接続される外部I/O技術、それもラック内もしくはデータセンター内での接続に利用されるもの、という位置付けに変更されることとなった。

 また、こうした位置付けの変更に伴ってか、Intelは自身によるInfiniBand関連の半導体製品の開発を中止する方針を決めた。Intelによれば、「すでに他社が優れたチップを開発済みであり、後発で参入するメリットがないため」と述べた。また「InfiniBandに対するコミットを弱めたわけでもない」としている。ただ、こうしたIntelの姿勢に影響されてか、MicrosoftはWindowsに対してInfiniBandソフトウェア・スタックの開発を中止すると決定、InfiniBandの将来は一気に怪しくなっている。InfiniBandソフトウェア・スタックとは、InfiniBandを利用するために必要なドライバ類やAPIなどのことだ。こうした現状に対して、クライン氏に伺った。

まずクラスタリング技術として普及を

 2002年春、InfiniBandの半導体製品の開発中止を決めたとき、前述のように「IntelはInfiniBandに対するサポートをやめるわけではない」と述べている。その証というわけではないが、IntelはLinux用のInfiniBandソフトウェア・スタックを、SourceForge.net(オープン・ソースの開発コミュニティ:ホームページ)を通じて配布している。現在提供されているものは、Mellanox製のホストアダプタに対応したIA-32版Red Hat Linux向けのものだが、Itanium用のソフトウェア・スタックも2003年第3四半期を目標に開発を進めているという。上述のとおり、Microsoftは自社によるInfiniBandサポートを中止してしまったが、サードパーティによるWindowsプラットフォームへのInfiniBandサポートに関しては支援する方針であると述べた。

Intelのアリソン・クライン氏
アリソン・クライン氏は、IntelでInfiniBandならびにPCI Expressのマーケティングを担当している。IDF Japan 2003で来日した際にInfiniBandの現状について伺った。

 Intelは、半導体製品の自社開発をやめてしまったが、Intel Capital(Intelの投資部門)を通じてMellanoxに出資しているほか、ソフトウェア開発やマーケティングに対しても支援を続けている。コア・ビジネスである半導体製品の開発を打ち切ったにもかかわらず、InfiniBandのサポートを続けているのは、IntelがIAプラットフォームに投資することで、(プロセッサ単体というより)プラットフォームの競争力を高めようとしていることの一環だ。

 InfiniBandの用途については、現時点ではサーバのクラスタリングにまずフォーカスするとのこと。現在実用化されている4xのInfiniBand(データ転送速度:10Gbits/s)は、ギガビット・イーサネットの8倍の帯域を持ち、Myrinet(Myricomのクラスタリング向け接続技術)やQsNet(Quadricsクラスタリング向け接続技術)といった独自規格によるクラスタリング技術の3倍の帯域と3分の1のレーテンシを誇っている。またギガビット・イーサネットによるクラスタリングの場合、CPU占有率が70%近くに達するのに対し、InfiniBandなら4〜5%で済むとメリットを強調した。

 イーサネットでInfiniBandと同等の性能、効率性を実現するには、TCPオフロード・エンジンやRDMA(Remote Direct Memory Access:ネットワークで接続されたコンピュータ間で、相手先のデータ・アドレスを指定して直接メモリへのデータ書き込み/読み出しを行う通信機能)機能の実装、10Gbイーサネットの普及といった要素がそろうのを待たねばならないが、それは2005年当たりになる見込みだ。Intelは10Gbイーサネットも独自規格のクラスタリング技術の代替となり得るものと考え、両方をサポートするが、現時点でベスト・パフォーマンスを求めるのであれば、InfiniBandの方が優位ではないかと述べた。

 現在、InfiniBandを積極的に推進しているシステム・ベンダは、Dell Computer、IBM、Sun Microsystemsの3社である。Dell ComputerはOracleと共同でInfiniBandプラットフォームを提供している。IBMは、同社製データベース管理ソフト(DBMS)であるDB2のInfiniBand対応を含め、製品を出荷中だ。DBMSがInfiniBandをことさら意識する必要はないが、クラスタリングの管理まで含めて標準化されたという点で、InfiniBandはほとんど唯一の存在となっている。こうしたInfiniBand対応製品は、米国ロスアラモス国立研究所など、研究機関向けのHPC(High Performance Computing)分野にまず導入されている。一方、組み込み用途においても、工業製品分野の標準バス規格の1つであるVMEバスの代替としてInfiniBandを採用する動きがある。このように、徐々にではあるがInfiniBandの普及は始まっている。

 Intelのチップ開発からの撤退やMicrosoftのソフトウェア・スタックの開発中止など、InfiniBandの普及に暗雲が漂い始めたものの、開発は順調に進んでいるようだ。ただ、当初考えられていたようなサーバの内部から外部まですべてのI/OがInfiniBandになる、ということはないことが明らかになった。クラスタリングにおけるサーバ間接続やブレード・サーバのバックプレーンなど、限定した用途ながら確実に普及する道を歩みつつある。逆に、現在でも用途を限れば、InfiniBandは優れたソリューションといえるだろう。InfiniBandに対する投資については、適用する用途を十分に検討した上で行った方がいいだろう。記事の終わり

  関連リンク 
SourceForge.netとは
 
目次ページへ  「System Insiderの解説」


System Insider フォーラム 新着記事
  • Intelと互換プロセッサとの戦いの歴史を振り返る (2017/6/28)
     Intelのx86が誕生して約40年たつという。x86プロセッサは、互換プロセッサとの戦いでもあった。その歴史を簡単に振り返ってみよう
  • 第204回 人工知能がFPGAに恋する理由 (2017/5/25)
     最近、人工知能(AI)のアクセラレータとしてFPGAを活用する動きがある。なぜCPUやGPUに加えて、FPGAが人工知能に活用されるのだろうか。その理由は?
  • IoT実用化への号砲は鳴った (2017/4/27)
     スタートの号砲が鳴ったようだ。多くのベンダーからIoTを使った実証実験の発表が相次いでいる。あと半年もすれば、実用化へのゴールも見えてくるのだろうか?
  • スパコンの新しい潮流は人工知能にあり? (2017/3/29)
     スパコン関連の発表が続いている。多くが「人工知能」をターゲットにしているようだ。人工知能向けのスパコンとはどのようなものなのか、最近の発表から見ていこう
@ITメールマガジン 新着情報やスタッフのコラムがメールで届きます(無料)

注目のテーマ

System Insider 記事ランキング

本日 月間