生成AIをデバイス上で実行するための「ヘテロジニアスAIチップセット」 2030年までに18億個出荷:ABI Researchの予測
ABI Researchは、2030年までにヘテロジニアスAI(人工知能)チップセットの出荷数18億個以上に達するとの予測を発表した。
ABI Researchは2024年2月21日(米国時間)、2030年までに、異なる種類のプロセッサ(CPU、GPU、NPUなど)を組み合わせて、AI(人工知能)の計算処理をより効率的に実行するためのチップセットである「ヘテロジニアスAIチップセット」の出荷数が18億個以上に達するとの予測を発表した。
ABI Researchによると、ヘテロジニアスAIチップセットを搭載したデバイスは、抽象化レイヤーを通じて、AIワークロードをCPU/GPU/NPUのアーキテクチャ間で効率的に分散処理できる。これにより、150億以下のパラメーターに圧縮された大規模言語モデル(LLM)を使用した推論をローカルで実行できるようになるとしている。
ABI Researchのインダストリーアナリストであるポール・シェル氏は、次のように述べている。
「生成AIをクラウドで構築、拡張する際の懸念として、データプライバシー、レイテンシ、ネットワーキングコストの問題がある。これらのリスクを軽減できるオンデバイスAIには明確な価値がある。ヘテロジニアスAIチップセットの分野は、Qualcomm、MediaTek、Googleが先行しており、いずれも大規模言語モデル(LLM)をオンデバイスで実行するチップセットを製造している。PC分野では、IntelとAMDがリードしている」
一方で、ABI Researchは、ヘテロジニアスAIチップセット市場の成長には、ハードウェアだけではなく、ソフトウェアとハードウェアプレイヤーの強力なパートナーシップも必要だと指摘している。生産性を重視したアプリケーション開発を促進させることで、スマートフォンやPCなどのエンドデバイスの交換サイクルを短縮することにつながり、2025年から2028年に出荷台数も増加するとの予測を示している。
「ヘテロジニアスAIチップセットを搭載したデバイスで実行される生産性AIアプリケーションは、ラップトップ、スマートフォンなどの個人用および業務用デバイスの大幅な市場成長をけん引するだろう。チップベンダーやOEMは、顧客を惹きつけるために、生成AIアプリケーションエコシステムを拡大させるべきだ。便利で役立つ生成AIアプリケーションを構築して成功を収めることが鍵となるだろう」(シェル氏)
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- エッジAIに対応するRISC-Vの開発が進む? 2030年までに1億2900万個を出荷 ABI Research
調査会社ABI Researchは、RISC-Vの市場動向分析レポートを公開した。エッジAIワークロードの増加に伴い、2030年までにRISC-Vの出荷個数が1億2900万個に達すると予測している。 - オープンソースのLLMをローカルで実行できる「Ollama」Windowsプレビュー版、公開
Ollama Projectは、オープンソースの大規模言語モデルをローカル環境で実行できる「Ollama」のWindowsプレビュー版を公開した。 - Microsoft、WebブラウザでMLモデルを実行できる「ONNX Runtime Web」を公開
Microsoftはあらゆる機械学習(ML)モデルを実行できる「ONNX Runtime Web」を公開した。オープンソース推論エンジン「ONNX Runtime」の新機能だ。JavaScript開発者はMLモデルをWebブラウザで実行、デプロイできる。