ストレージにできることとは? NetAppの答え:Server & Storageイベントレポート(2/2 ページ)
クラウド環境・ビッグデータ関連市場が盛り上がる中、ストレージベンダはどんな価値を提供する? ストレージベンダの1社であるNetAppのイベントから。
クラウド・ビッグデータ市場を狙う製品戦略
米NetAppで製品およびソリューションマーケティング部門のバイスプレジデントを務めるブレンドン・ハウ氏は、クラウド時代におけるNetAppテクノロジの現在と今後のビジョンについて説明が行われた。
ハウ氏はまず、現在のインフラ市場の状況を「共有統合インフラ」と「専用インフラ」に分け、共有統合インフラにおいては「エンタープライズアプリケーションの共有が中心で、変化に柔軟に対応するスケーラブルなアプローチが主流となる。マネジメントに必要な人的リソースも、管理するハードウェアの数も大幅に減る」とし、共有統合インフラが多くを占めるようになる一方で、「アプリケーションにはどうしても共有に向かないものもある。そうしたワークロードを処理するためには専用インフラが必要。アプリケーションの性格が異なるので避けられない」と専用インフラの必要性も強調している。いずれもベースとなるのは仮想化された環境であるため、クラウドに移行していくのは自然な流れだという。
NetAppでは共有統合インフラにはData ONTAPが搭載されたFASシリーズ、専用インフラに向けてEシリーズをそれぞれ提供している。特に共有統合インフラの基盤となるData ONTAPに対する自信は大きく、「この20年、重複排除やシンプロビジョニングにずっとフォーカスしてきたOS。いままでのストレージでは実現が難しかったゼロダウンタイムやオンデマンドでの柔軟な拡張など、クラウド時代に最も適したストレージインフラ」と強調する。
ストレージとネットワークを仮想化したデータプラットフォームとは
そしてハウ氏が新しいプラットフォームの形として提示したのがストレージとネットワークを仮想化した「clustered Data ONTAP」だ。
原理としてはデータコンテナとデータアクセスを仮想化し、コントローラと物理ストレージから分離、インターコネクトによりクラスタ全体でリソースを共有を行い、オンデマンドでプロビジョニングを実現、NASスケールアウトにとどまらないスケーリングを提供するというものだ。
「データやアプリケーションが増加する傾向にあるなか、インフラの拡大はノンストップでシームレスに行われる必要がある。また、さまざまなコントローラやディスクタイプ、さらには他社のストレージアレイが混在するヘテロジニアスな環境でも問題なく稼働しなければならない。clustered Data ONTAPは数千のボリュームをホスティング可能で、ペタバイトサイズのネームスペースを提供できる。アプリケーションの統合、管理機能の統合、そしてストレージの統合と、インフラの統合がますます重要になる今後、clusterd Data ONTAPに投資する理由は十分に正当化されるものだ」(ハウ氏)
clusterd Data ONTAPに続いてハウ氏が強調したNetAppの技術トレンドが「フラッシュへのアプローチ」だ。ハウ氏は「フラッシュはいまストレージの世界で最もにぎわいを見せている技術。パフォーマンス、効率性、シンプリシティを大きく向上する存在としてこれから普及のスピードが増していくだろう」と語る。
Data ONTAP搭載のFASシリーズでは既に下記ラインアップを持っている。
Flash Accel サーバ側の技術。アプリケーションとサーバのパフォーマンスを高速化し、Data ONTAPとの統合で一貫性を維持する。データはストレージに保持
Flash Cache ストレージ側の技術でシステムレベルの読み取りキャッシュ。アグリゲートとボリューム全てに対応。管理オーバーヘッドのないプラグ&プレイを実現
Flash Pool ストレージ側の技術でアグリゲートレベルのリード/ライトキャッシュ。ボリューム単位でポリシー設定が可能。フェイルオーバー時にもキャッシュの可用性を維持
特に注目はFlash Poolで、ホットデータに自動的にアクセス可能で、アクセスの状況に応じてシステムが自動で対応するという。
この自己管理型ともいうべきシステムに欠かせない技術が「バーチャルストレージティア」だ。
バーチャルストレージティアは頻繁なアクセスのあるデータをフラッシュにリアルタイムで配置することが可能だ。
「きめ細かでデータ移動のないキャッシングが特徴。キャッシュするデータをリアルタイムに判断できるデータ主体の技術で、非常にパワフルな性能を備えている」(ハウ氏)
ClouderaベースのHadoopソリューション「NOSH」を新たに発表
共有統合インフラと並ぶNetAppの注力セグメントが専用ワークロードの処理だ。先にも触れたように、アプリケーションの性質が異なっているため、共有には向かないワークロードもある。ビッグデータ分析、HPC、ビデオ監視、コンテンツリポジトリ、バックアップ/アーカイブなどが該当する。NetAppはそのためのソリューションとしてEシリーズを提供している。
今回のイベントにおいて、NetAppはエンタープライズITの世界で大きなトレンドの1つとなっているビッグデータに関する日本市場向けの発表を行った。Hadoopディストリビューション「Cloudera's Distribution including Apache Hadoop(以下、CDH)」を提供する米Clouderaと提携し、Eシリーズを中心に構築されたHadoop基盤「NetApp Open Solution for Hadoop(以下、NOSH)」を新たに企業向けに提供する。
システム構築は新日鉄住金ソリューションズが担当し、横浜にある同社の検証センターにおいて、原則無償で環境の貸し出しが行われる。最小構成の参照価格は3276万4000円から。
大規模なHadoop分析へのニーズが高まる中、エンタープライズ級の信頼性と大容量データ分析にかかるTCOの大幅な削減を実現するというNOSH。この発表のために登壇したCloudera代表取締役社長のジュゼッペ小林氏は「ビッグデータは生データであり、使用目的よりも先に冷蔵庫であるストレージに詰め込むこと、つまり集約が一番の課題。もともとHadoopはバッチ処理を得意としていきたが、現在はリアルタイム分析も可能になってきている。だが、より速い処理を求めるなら、CPUではなく、データソースに最も近いところにデータストアであるストレージを持ってきたシステムの方がいい」と語る。
「ビッグデータはまだ誤解されている部分が多い。重要なのはbigとdataの間にあるスペースの存在。この2つを結び付ける因果関係を理解しないでビッグデータ分析と言っても意味がない」と小林氏。そしてNOSHがその因果関係を明らかにする主要な役割を果たすというわけだ。
NetApp自身もCDHでHadoop分析を行っているが、「240億の非構造化データを分析するのに以前の環境では4週間かかっていたが、CDHに変更したところ10.5時間に短縮できた。この経験から、サーバとストレージを分離し、かつオープンで堅牢性のあるHadoop環境をお客さまに提供できると確信した」(ハウ氏)という。
関連特集:プライベートクラウドをめぐる誤解
企業などの組織内で、サーバ仮想化基盤を構築・運用することが「プライベートクラウド」だと考える人は多いようだ。しかし、クラウドサービスが単なる仮想サーバホスティングサービスでないのと同様、プライベートクラウドも単なるサーバの仮想化統合ではない。では、プライベートクラウドを構築すべき理由とは何なのか。また、その具体的な要件とはどういったものなのだろうか。特集では将来性を加味したプライベートクラウド構築のあるべき姿を探る。
Copyright © ITmedia, Inc. All Rights Reserved.