クラウドAIサービス利用におけるサステナビリティ、そのベストプラクティスとは:Gartner Insights Pickup(355)
クラウドAIはAI機能の実装を加速させるが、特に生成AI需要への対応には膨大なリソースが消費される。クラウドAIの選択にはAI機能自体に加え、サステナビリティ態勢も評価の最優先事項になる、さまざまなベストプラクティスがある。
クラウドAIはAI機能の実装を加速させるが、AI(特に生成AI)需要への対応には、電力など膨大なリソースが消費される。そのため、サステナビリティ(持続可能性)の観点から見ると、クラウドAIを選択する際はプロバイダーのクラウドAI機能自体に加え、サステナビリティ態勢も評価の最優先事項になる。
サステナビリティへのコミットメントを示しているクラウドプロバイダーのみをパートナーに選ぶことが基本だが、それは出発点にすぎない。生成AIアプリケーションをデプロイ(展開)する上で、クラウドAIプラットフォームの利用が環境に与える影響の多くを軽減できる、サステナビリティと最適化に関するさまざまなベストプラクティスがある。その主なものを以下に挙げる。
再生可能エネルギーを使用
可能な限り、消費電力を再生可能エネルギーでまかなうクラウドの生成AIサービスのみを使用する。持続可能なクラウドプロバイダーは、各クラウドリージョンや特定のクラウドデータセンターの再生可能エネルギー統計を顧客と共有している。ただし、クラウドデータセンターに供給される電力の発電源を曖昧にごまかすグリーンウォッシング(環境に配慮しているように装うこと)に注意する必要がある。
一部のクラウドプロバイダーは、再生可能エネルギー証書を使用することで、事業活動で消費するエネルギーを「100%再生可能エネルギー」で調達する目標を達成している。こうしたプロバイダーのクラウドサービスは、クラウド利用において再生可能エネルギー化を実現するための主要なソリューションとしてではなく、予備の選択肢としてのみ使用すべきだ。
エネルギー消費を最小限に
エネルギーを考慮したワークロード配置とジョブスケジューリングにより、クラウドAIワークロードがデータセンターで、持続可能な方法で運用される可能性が高くなる。また、エネルギーを効率的に使用するクラウドデータセンターを選ぶとよい。
そのためには、クラウドサービス全般とクラウドデータセンターのPUE(Power Usage Effectiveness:電力使用効率)を確認する。PUEは、1.0に可能な限り近いことが望ましい。ほとんどのクラウドデータセンターのPUEは1.1〜1.5となっている。
クラウドのリソース消費を最適化
クラウドの最適化を推進する。その方法としては、サービス使用状況のモニタリングとレポート、認可または意図されていない使用の抑制、クラウドリソースの適正化、必要に応じたリソースのスケールアップとスケールダウンが挙げられる。大規模言語モデル(LLM)へのAPIベースのアクセスのような生成AI技術を利用することも、効果的な最適化手段になる。
だが、AI、特に生成AIは使いやすさが向上しコストも手ごろだが、これはAIの過度な使用につながる可能性があることに注意する必要がある。クラウドリソースの最適化の一環として、生成AI技術の慎重かつ責任ある利用を管理するガバナンスポリシーを導入しなければならない。
AIに最適化されたハードウェアを使用
クラウドプロバイダーは、AIワークロードに特化したハードウェアを使用するようになってきている。多くの場合、こうしたハードウェアはAI用にエネルギー消費が最適化されている。こうしたハードウェアの例には、NVIDIAの「DGX」プラットフォームやAmazon Web Services(AWS)の「Trainium」「Inferentia」プロセッサ、Googleの「Tensor Processing Units」(TPU)、最近発表されたMicrosoftの「Azure Maia」チップセットなどがある。
大手のクラウドプロバイダーは、これらの専用ハードウェアをAIインスタンスタイプとして提供している。これらを選択することで、料金の改善とパフォーマンスの向上、エネルギー消費の低減など、さまざまなメリットが得られる。
データストレージおよび管理を最適化
データストレージは安価で簡単に使えるため、データの拡散や複製が広く行われている。不要なデータを削除すれば、サステナビリティに一定のメリットをもたらすが、データを積極的に使用、管理することは、不要なエネルギー消費につながる可能性がある。
持続可能な戦略には、自社にとって価値のないデータを処分し、さまざまなデータ形式ごとに最も効率的なストレージ技術を選択することが含まれる。他にも、できるだけオフラインストレージを使用すること、データガバナンスポリシーを導入すること、データの保存場所は、アクセスするアプリケーションやプロセスの近くにすること、データの複製を最小限に抑えることが含まれる。
データ移動を最小化
データセンター間で大規模なデータセットを移動させることでネットワークの使用量が増えると、エネルギー消費が増えることがある。これを最小限に抑える最良のアプローチは、AIを支えるデータをAIモデリングプロセスやAIアプリケーションと同じ場所に置くことだ。
クラウドプロバイダーのネットワーキングサービスなどによってクラウド間ネットワーキング機能を確保することで、データの移動を最小限に抑えられる。データを複数のネットワークにわたって転送する必要がある場合、最も持続可能なアプローチは、必要なデータのみが送信されるようにすることだ。
持続可能なアプリケーションアーキテクチャを確立
アプリケーションはますます生成AI機能を取り入れていくだろうが、非効率を招く潜在的リスクがないわけではない。アプリケーションを設計する際は、AIが行う推論がAIモデルのトレーニングよりも多くの電力を消費することに注意する必要がある。
AI推論を最適化するには、より小さな推論モデルを使用してメモリ使用量を減らし、推論に最適化されたハードウェアとアクセラレータを利用し、分散アクセスポイントを使って、AIモデルをアプリケーションによる消費ポイントの近くに配置する。
時間外にプロセスを実行
生成AIプロセスは電力消費が多いため、クリーンなエネルギーだけでなく、全体的なエネルギー利用可能性を考慮する。一部の地域ではもともとエネルギー制約があり、エネルギー消費が多いオペレーションを追加すると、それらのシステムに過大な負荷がかかる恐れがある。
クラウドデータセンターでは、エネルギー消費の少ない時間帯により安価なグリーンエネルギーを利用できる可能性がある。異なる地域ごとに利用可能なエネルギーを活用できるAIワークロード配置戦略を採用する。
AIモデルのチューニングを最適化
クラウドプロバイダーは現在、汎用的な生成AIソリューションをサポートするために、基盤となるLLMに数十億ドルを投資している。一部のLLMはゼロから構築する必要があるかもしれないが、まずは基本的なLLMを使用することを目指すとよい。
ファインチューニングなどの手法を使えば、既存のLLMの精度を向上させるのに役立つ。プロンプトエンジニアリングのような手法により、エネルギー消費を抑えながら、リソースをより有効活用することもできる。
出典:Assessing the sustainability of cloud AI services(Gartner)
※この記事は、2024年4月に執筆されたものです。
Copyright © ITmedia, Inc. All Rights Reserved.