元麻布春男の視点PCグラフィックスの新標準「GeForce4」のインパクト元麻布春男 2002/02/08 |
2002年2月6日、NVIDIAは新しいグラフィックス・チップ「GeForce4 Tiシリーズ」および「GeForce4 MXシリーズ」を発表、同社グラフィックス・チップのラインナップを一新した(NVIDIAの「GeForce4シリーズ発表に関するニュースリリース」)。GeForceシリーズは、多くのPCベンダが採用していることから、同シリーズのラインナップ変更は春モデル以降のクライアントPCに少なからず影響を与えることになるだろう。ここでは、GeForce4シリーズの特徴を紹介し、クライアントPCのグラフィックス機能がどのように変わっていくことになるのかを解説しよう。
GeForceシリーズの新ラインナップ
新しいラインナップは、ハイエンド向けのGeForce4 Tiシリーズが3モデル、メインストリーム向けのGeForce4 MXシリーズが3モデルで構成される。GeForce4 Tiシリーズの登場にともない、これまでハイエンド向けとして提供されてきたGeForce3 Tiシリーズがメインストリームに降りるのではなく、ラインナップから姿を消すことになる。同様にメインストリーム向けもGeForce4 MXがとって代わるが、従来メインストリーム向けだったGeForcd2 MXシリーズは、RIVA TNT2シリーズが担っていたローエンドを置き換える形で引き続き提供される。
発表会で展示されたMSI製のグラフィックス・カード |
GeForce4 MX 460(中央)、GeForce4 MX 440(左)、GeForce4 MX 420(右)をそれぞれ採用したもの。GeForce4 MXベースのカードは発表と出荷が同時のようだが、GeForce4 Tiベースのカードは3月に入ってからになりそうだ。 |
ハイエンド向けに提供されるGeForce4 Tiシリーズは、これまで「NV25」の開発コード名で知られてきたものだ。製造プロセスはGeForce3シリーズと同じ0.15μmプロセスである。そのためか、集積されたトランジスタ数は6300万個と、GeForce3に対して600万個の上乗せにとどまっている。表1は、1997年にリリースされたRIVA 128以降のNVIDIA製グラフィックス・チップ(一部)に集積されたトランジスタ数と製造プロセスをまとめたものだ。毎年、倍倍ゲームのようにトランジスタ数が増えてきたのに対し、GeForce3からGeForce4についてはトランジスタ数の増加率が極めて小さいのが目につく(例外はGeForce 256からGeForce2への切り替え時だが、ここは時間の経過が半年と比較的短かった)。かつてNVIDIA自身が、自社のグラフィックス・チップ(GPU:Graphics Processing Unit)に集積されるトランジスタ数の伸びは、ムーアの法則を上回ると豪語していたことを思うと、少々寂しい気がする。
発表年 | トランジスタ数 | 製造プロセス | |
RIVA 128 | 1997年 | 350万トランジスタ | 0.35μm |
RIVA TNT | 1998年 | 700万トランジスタ | 0.35μm |
RIVA TNT2 | 1999年 | 1500万トランジスタ | 0.25μm |
GeForce 256 | 1999年 | 2300万トランジスタ | 0.22μm |
GeForce2 GTS | 2000年 | 2500万トランジスタ | 0.18μm |
GeForce3 | 2001年 | 5700万トランジスタ | 0.15μm |
GeForce4 Ti | 2002年 | 6300万トランジスタ | 0.15μm |
表1 NVIDIAの主なグラフィックス・チップ |
トランジスタ数が大きく増えていない理由の1つは、製造プロセスに変わりがないことだ。1999年〜2001年まで、順調に製造プロセスの微細化が進んできたのに対し、2002年は2001年と同じ0.15μmに据え置きとなっている。NVIDIA製グラフィックス・チップの製造を行っているファウンダリ企業である台湾のTSMCは、2001年10月22日付けで0.13μmプロセスによるSRAMの製造、さらに2002年1月7日付けで0.13μmプロセスによるPLD(Programmable Logic Device:出荷後に開発者が回路を設計して書き込めるチップ)の製造をそれぞれ発表しており、現在は0.13μmプロセスの立ち上げ中というところ。GeForceシリーズのGPUのような、極めて集積規模の大きいロジック・チップに同プロセスを使うには、もう少し時間が必要なのかもしれない。逆にNVIDIAの方にも、先日発表された新しいPowerMac G4に間に合わせるために、0.13μmプロセスが利用可能になるのを待っていられなかったという事情があったことも考えられなくはない。
GeForce4 Tiの拡張機能
では、GeForce4 Tiで増加した貴重な600万個のトランジスタで、NVIDIAは何を行ったのか、気になるところだ。GeForce3に対して、GeForce4 Tiで加えられた新しい機能とはどのようなものなのだろうか。GeForce4 Tiの新機能で最も目をひくのは、内蔵するVertex Shader(頂点シェーダ)の演算エンジンが2つに倍増されたことだ。これにより、さらに複雑なジオメトリ処理が可能になった。
DirectX 8.1では、(おそらく)ATI Technologiesのインプットで、Vertexデータを増やすのではなくVertexデータを補完することで、よりリアルなモデル表現を行うN-Patchという考え方がインプリメントされている。NVIDIAがこのN-Patchにどう対応するのか注目されたが、とりあえずGeForce4 TiではN-Patchのハードウェア・サポートではなく、Vertexデータが増えてもそれに対応可能なようGPUを強化した、ということのようだ。N-Patchに対応することは、DirectX 8.1(あるいはその延長線上にあるDirectX 9)以降に対応したソフトウェア・タイトルで効果がある半面、DirectX 8.0のタイトルでは効果がない。Vertex Shaderを2つにしたことは、DirectX 8.0対応で複雑なジオメトリを処理することを可能にした、ともいえるわけで、どちらがよいのかは、タイトルの対応状況次第、というところだろう。
もう1つVertex Shaderを2本にしたことのメリットは、これをアンチエイリアスにも使っている、ということだ。GeForce4 Tiには「Accuview(アキュビュー)」と呼ばれる新しいアンチエイリアス技術が導入されている。アンチエイリアスを施すことで、ジャギーが軽減され画質が向上する一方で、フレームレートの低下などのペナルティが発生するが、GeForce4 Tiでは、新技術のAccuviewによって、このペナルティが小さくなるものと期待される。
アンチエイリアスを強化することのメリットは、タイトルのAPIサポートの状況にかかわらず、画質を向上させられる、ということだ。DirectX 8とシンクロして登場してきたGeForce3は、プログラマブル・シェーダ(Vertex Shader + Pixel Shader)*1という新しい概念をPCの3Dグラフィックスに持ち込んだ。これは画期的であった半面、対応したタイトルが登場するまでに長い時間を要する。DirectX 8のプログラマブル・シェーダをインプリメントしたタイトルは、「AquaNox(Massive Developmentの海底をテーマにした対戦ゲーム)」などようやく最近になって登場してきたものの、まだ主流にはなっていない。GeForce4 TiにはAPIの拡張をともなうような画期的な新機能はないが、それは単にプロセス・ルールが変わらなかったことによるトランジスタ数の不足という理由だけでなく、対応するソフトウェアがないのに突っ走っても仕方がない、ということもあるのかもしれない。いずれにしてもGeForce4 Tiの3Dグラフィックス機能には、保守的な印象が強い。発表会のデモも、過去の製品のようにセンセーショナルなものはなかったように思う。
*1 あらかじめAPIが処理機能を規定するのではなく、プログラマ(アプリケーション・ライタ)が、シェーダ・アセンブリ言語を用いて、処理内容(アルゴリズム)を記述することができる。 |
性能と機能に優れた「GeForce4 Ti」
ただし、機能的に保守的であることと性能の高さは、また別の問題だ。GPUコアの動作クロックが240MHz、グラフィックス・メモリの動作クロックが500MHz(DDR)だったGeForce3 Ti 500に対し、GeForce4 Tiシリーズの最上位モデルであるGeForce4 Ti 4600のコアは300MHz、メモリは650MHz(DDR)となっている。こうした動作クロックの引き上げに加え、GeForce4 Tiシリーズではグラフィックス・メモリとのインターフェイス回路も見直されるなどの改良が加えられており、かなり高い性能が期待される。
特に、上述したように、アンチエイリアスを有効にした場合の性能は非常に高く、アンチエイリアスを有効にしたGeForce4 Ti 4600の性能は、同じ条件でアンチエイリアスを無効にしたGeForce3 Ti 500を上回ることさえあるという。RIVA TNT2からGeForce 256、あるいはGeForce2からGeForce3のように、これまで著しくアーキテクチャが変更された場合、新しいアーキテクチャに対応したアプリケーションを使えば、新しいアーキテクチャの優秀性は明らかなものの、既存のソフトウェア・タイトルではあまり性能が変わらない、ということも少なくなかった。その点GeForce 4 Tiは保守的でアーキテクチャに目新しさが少ない反面、既存のタイトルにおける性能の向上という点では大いに有望といえるだろう。
以上に加え、GeForce4 Tiには「nView」と呼ばれるマルチディスプレイ・テクノロジが導入された。これまでGeForce2 MXシリーズに採用されていた「TwinView」がその名前のとおり、2台のディスプレイを前提にしていたのに対し、nViewは1台のPCあたり最大16台(Windows標準のコントロール・パネルでは最高9台)のディスプレイまで対応可能だ。このnViewテクノロジに合わせ、今回発表のグラフィックス・チップはRAMDAC、TMDSトランスミッタ(デジタル接続のディスプレイ向け信号送信回路)、CRTコントローラ(ディスプレイとのインターフェイスを制御する回路)などが、すべて二重化されており、2台のディスプレイを完全に独立して扱えるようになっている。そのため、2台のディスプレイを接続したデュアルディスプレイ構成にしても、性能があまり低下しない。nViewは、金融やデザイン、CADなどの用途で重宝する機能となるかもしれない。
メインストリームでの性能向上が大きな「GeForce4 MX」
一方、同時に発表されたメインストリーム向けのGeForce4 MXシリーズは、これまで「NV17」の開発コード名で知られてきたもの。最上位モデルであるGeForce4 MX 460ではコア・クロックが300MHz、メモリ・クロックが550MHz(DDR)で、GeForce2 MX 400の同200MHz/166MHz(SDR)に比べ、飛躍的に動作クロックが引き上げられている。加えて、レンダリング・パイプラインもGeForce2 MXシリーズの1本から2本に増大されており(これはGeForce2 GTSと同じ)、性能向上は著しいハズだ。また、GeForce4 Tiと同じアンチエイリアス技術のAccuview、マルチディスプレイ技術のnViewも搭載されている。
反面、GeForce4 MXシリーズでは、GeForce3シリーズとGeForce4 Tiシリーズがサポートするプログラマブル・シェーダの省略という形で、上位製品との差別化が図られている。このため、DirectX 8.0以降に対応した新しいソフトウェア・タイトルでは、GeForce4 Tiとの性能差は開くし、GeForce3を下回るだろうが、それ以前のAPIに対応したソフトウェアであれば、上位モデルに近い性能も期待できる。自分はあまり3Dゲームをしない、というユーザーには問題はないハズだ。いずれにしても、このメインストリーム・クラスを購入するユーザーの方が、ハイエンド・クラスを購入するユーザーよりも、1世代前の製品に対し大きな性能向上が見込める。
表2は今回発表された、2機種6モデルのグラフィックス・チップを採用したグラフィックス・カードの推定小売価格(米国ドル)だ。最上位のGeForce4 Ti 4600の399ドルは、GeForce3 Ti 500のときと同じで、価格は据え置きとなっている。そのほかのモデルもおおむね、据え置きのようだ。微妙なのはGeForce4 MX 460とGeForce4 Ti 4200の価格差が20ドルしかないことで、プログラマブル・シェーダが20ドルで買えると考えれば、GeForce4 Ti 4200の方がお買い得かもしれない。ただ、最終的な価格は市場で決まるものであり、ここの価格差が開く可能性はある。
カード名 | 推定小売価格 | メモリ構成 |
GeForce4 Ti 4600 | 399ドル | 128Mbytes DDR |
GeForce4 Ti 4400 | 299ドル | 128Mbytes DDR |
GeForce4 Ti 4200 | 199ドル | 128Mbytes DDR |
GeForce4 MX 460 | 179ドル | 64Mbytes DDR |
GeForce4 MX 440 | 149ドル | 64M/128Mbytes DDR |
GeForce4 MX 420 | 99ドル | 64M/128Mbytes SDR |
表2 GeForce4シリーズを搭載したグラフィックス・カードの推定小売価格 |
PowerMac G4への標準搭載という事情もあったせいか、夏商戦に向けた春のグラフィックス・チップのアップデートは、NVIDIAが先に札を切る形となった。GeForce4 Tiシリーズは間違いなく現時点で最強のGPUだが、ライバルであるATI Technologiesも3月下旬のGDC(Game Developers Conference)/CeBIT(ドイツで開催されるIT関連トレード・ショー)あたりか、遅くとも4月のWinHEC(Windowsハードウェア技術者向けカンファレンス)には、新しいグラフィックス・チップの発表を行うといわれている。「R300」という開発コード名で知られているATI Technologiesの次世代GPUは、マイクロソフトのDirectX 9に対応するといわれており、目新しさという点では間違いなくGeForce4シリーズより上になるだろう(わずか1カ月半の差で0.13μmプロセスが使えるようになるのか、0.15μmプロセスでR300は可能か、ということを考えると、ATI Technologiesの3月の新製品がR300ではない可能性もある)。両社の熾烈な戦いは、直接ハイエンドPCのグラフィックス機能に大きな影響を与えるだけに、目が離せないところだ。
関連記事 | |
生き残りを賭けたグラフィックス・カード・ベンダの選択 | |
RADEON 8500はグラフィックス市場に新風を巻き起こすか? | |
次期内蔵グラフィックス機能を占う「SiS315」の性能 | |
「売り」のないMatroxの新グラフィックス・チップ「Matrox G550」 |
関連リンク | |
GeForce4シリーズ発表に関するニュースリリース |
更新履歴 | |
|
「元麻布春男の視点」 |
- Intelと互換プロセッサとの戦いの歴史を振り返る (2017/6/28)
Intelのx86が誕生して約40年たつという。x86プロセッサは、互換プロセッサとの戦いでもあった。その歴史を簡単に振り返ってみよう - 第204回 人工知能がFPGAに恋する理由 (2017/5/25)
最近、人工知能(AI)のアクセラレータとしてFPGAを活用する動きがある。なぜCPUやGPUに加えて、FPGAが人工知能に活用されるのだろうか。その理由は? - IoT実用化への号砲は鳴った (2017/4/27)
スタートの号砲が鳴ったようだ。多くのベンダーからIoTを使った実証実験の発表が相次いでいる。あと半年もすれば、実用化へのゴールも見えてくるのだろうか? - スパコンの新しい潮流は人工知能にあり? (2017/3/29)
スパコン関連の発表が続いている。多くが「人工知能」をターゲットにしているようだ。人工知能向けのスパコンとはどのようなものなのか、最近の発表から見ていこう
|
|