ABI Researchは、2030年までにヘテロジニアスAI(人工知能)チップセットの出荷数18億個以上に達するとの予測を発表した。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
ABI Researchは2024年2月21日(米国時間)、2030年までに、異なる種類のプロセッサ(CPU、GPU、NPUなど)を組み合わせて、AI(人工知能)の計算処理をより効率的に実行するためのチップセットである「ヘテロジニアスAIチップセット」の出荷数が18億個以上に達するとの予測を発表した。
ABI Researchによると、ヘテロジニアスAIチップセットを搭載したデバイスは、抽象化レイヤーを通じて、AIワークロードをCPU/GPU/NPUのアーキテクチャ間で効率的に分散処理できる。これにより、150億以下のパラメーターに圧縮された大規模言語モデル(LLM)を使用した推論をローカルで実行できるようになるとしている。
ABI Researchのインダストリーアナリストであるポール・シェル氏は、次のように述べている。
「生成AIをクラウドで構築、拡張する際の懸念として、データプライバシー、レイテンシ、ネットワーキングコストの問題がある。これらのリスクを軽減できるオンデバイスAIには明確な価値がある。ヘテロジニアスAIチップセットの分野は、Qualcomm、MediaTek、Googleが先行しており、いずれも大規模言語モデル(LLM)をオンデバイスで実行するチップセットを製造している。PC分野では、IntelとAMDがリードしている」
一方で、ABI Researchは、ヘテロジニアスAIチップセット市場の成長には、ハードウェアだけではなく、ソフトウェアとハードウェアプレイヤーの強力なパートナーシップも必要だと指摘している。生産性を重視したアプリケーション開発を促進させることで、スマートフォンやPCなどのエンドデバイスの交換サイクルを短縮することにつながり、2025年から2028年に出荷台数も増加するとの予測を示している。
「ヘテロジニアスAIチップセットを搭載したデバイスで実行される生産性AIアプリケーションは、ラップトップ、スマートフォンなどの個人用および業務用デバイスの大幅な市場成長をけん引するだろう。チップベンダーやOEMは、顧客を惹きつけるために、生成AIアプリケーションエコシステムを拡大させるべきだ。便利で役立つ生成AIアプリケーションを構築して成功を収めることが鍵となるだろう」(シェル氏)
Copyright © ITmedia, Inc. All Rights Reserved.