生成AIのトレーニングをサポートするコンピュートインフラの急速な拡大に伴い、電力供給の確保が大きな課題となっている。本稿では、製品リーダーや企業が電力効率の高い生成AIソリューションを展開するために考慮すべきトレンドを紹介する。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
生成AIのトレーニングをサポートするコンピュートインフラの急速な拡大に伴い、電力供給の確保が大きな課題となっている。Gartnerは2027年までに、AIワークロードを展開している既存のデータセンターの40%以上が、電力制約に直面すると予測している。
この電力問題により、データセンターを運用する企業や事業者は、コストの増加や持続可能性の低下といったビジネス課題を抱えることになる。これらの課題は、いずれはこうした企業や事業者の顧客やエンドユーザーにも影響を及ぼすようになる。だが、Gartnerの調査は、半導体のイノベーションが生成AIが引き起こす電力問題の35%の解決に貢献することを示している。
生成AIに依存するプロダクトリーダーや企業は、電力効率の高い生成AIソリューションを展開するために、以下のトレンドを考慮する必要がある。
半導体技術は、数十年にわたって消費者向けエレクトロニクスとハイパフォーマンスコンピューティング(HPC)のイノベーションをけん引してきた。現在、より真価が問われる局面を迎えている。生成AIの利用拡大でコンピュート需要が大幅に増加しているからだ。ハードウェア需要が依然としてその中心であり、市場と投資家は、コンピュートチップが電力問題に及ぼす影響にかつてない厳しい視線を向けている。
先端半導体の製造コストの高騰により、業界全体のイノベーションが阻害され、これらの半導体にアクセスし、実験を行う資金のある企業が限られてしまっている。Gartnerは、2035年までに事業機会の実質的な不足と価格圧力により、先端AIチップを提供できる能力と規模を持つ有力チップメーカーが減少すると予測している。
プロダクトリーダーは、AIコンピュートチップ技術のロードマップについて以下の3つの潜在的なシナリオを考慮し、それに応じて製品/サービスのポートフォリオと展開計画を調整する必要がある。
・市場の整理/統合:既に集中化が進んでいる先端ロジック半導体メーカーの市場は、事業機会の実質的な不足と価格圧力により、整理/統合がさらに進む可能性がある
・新興勢力の台頭:半導体の自給自足を目指す政府の後押しを受けて新興企業が台頭したり、成熟したノードを持つ既存企業が初期のトラブルを乗り越えて前に進み、新たな道を切り開いたりする可能性がある
・代替技術:代替材料や代替技術により、現在の製造設備で7ナノ(メートル)以下の製造プロセスをより低コストで実現できる可能性がある。だが、そのためには、学術研究などの研究を綿密にモニタリングし、いち早く提携を通じて新技術へのアクセスを確保する必要がある。
こうした課題に対処するため、企業はAIベースのチップ設計とDTCO(Design Technology Co-Optimization:設計技術共同最適化)やSTCO(System Technology Co-Optimization:システム技術共同最適化)を活用し、コスト削減と市場投入期間の短縮を実現しなければならない。
さらに、未来型の新技術(ウエハスケールプロセッサや、アナログコンピューティングのような研究開発段階の技術)を採用し、AIコンピュートチップの電力効率を最大限に高めることが重要だ。エネルギー比例性を考慮したコンピューティングや、低演算精度のコンピューティングといった技術を取り入れ、コンピュートパフォーマンスを最適化することも重要になる。
Gartnerは2030年までに、適切なメモリアーキテクチャや技術を製品化できないことが、AIコンピュートシステムの最大の制約要因になるだろうと予測している。
現在、メモリのレイテンシと帯域幅がAIシステムのパフォーマンスを制約しており、非常に厄介なことに、ムーアの法則の衰退と高速コンピュートロジックチップの信号における完全性の低下が、それに拍車を掛けている。この問題は、特にAI、リアルタイム、アナリティクスアプリケーションに使用される高度な並列システムで深刻だ。これらのシステムでは、オンチップおよびオフチップのデータ移動とメモリアクセスに多大な電力コストがかかる。
新興の生成AIモデルは、膨大なデータでトレーニングする必要がある。そのため、関連するメモリのコストとパフォーマンスがボトルネックとなっており、これらを飛躍的に改善する新しいアーキテクチャ設計が必要となっている。これらの問題に対処するため、高帯域幅メモリ(HBM)によるニアメモリ処理や、グラフィックスダブルデータレート(GDDR)などの技術が導入されている。だが、HBMには現在、コストと供給の制約がある。
プロダクトリーダーや企業はこれらの課題に効果的に対処するために、幾つかの方策を講じる必要がある。
まず、ソフトウェア開発者と協力し、インメモリ処理(PIM)の導入をスピードアップすることで、エンドユーザーのリスクを最小限に抑えなければならない。インメモリ処理では、処理機能とメモリが同じ論理設計で組み合わせて扱われ、メモリ配列に格納されたデータに論理演算を直接適用することが可能になる。
さらに、「CXL」(Compute Express Link)アーキテクチャを設計することで、メモリリソースをよりパフォーマンスの低いワークロードから解放し、ワークロードの合理化と運用の効率化を実現できる。
出典:Top trends in energy-efficient generative AI compute systems(Gartner)
※この記事は、2024年11月に執筆されたものです。
Copyright © ITmedia, Inc. All Rights Reserved.