Meta、AIワークロード用に設計した次世代カスタムメイドチップを発表:ランキング/レコメンデーション用モデルの効率的な提供に貢献
Metaは、AIワークロード用に設計されたMetaカスタムメイドチップの次世代バージョンを発表した。最新バージョンのカスタムチップは、前世代と比較してパフォーマンスが大幅に向上しているという。
Metaは2024年4月10日(米国時間)、AI(人工知能)ワークロード用に設計されたMetaカスタムメイドチップの次世代バージョンを発表した。最新バージョンのカスタムチップは、前世代と比較してパフォーマンスが大幅に向上しており、FacebookやInstagramのランキング、レコメンデーション広告モデルのパワーアップに貢献しているという。Metaは新チップについて、次のように説明している。
Metaは、新しい生成AI製品、レコメンデーションシステム、高度なAI研究のサポートなどを念頭に置いて次世代大規模インフラを構築している。モデルの高度化とともに、AIモデルをサポートするために必要なコンピューティングリソースが増加することから、今後数年間、インフラに多額を投資する予定だ。
2023年にMetaは「Meta Training and Inference Accelerator(MTIA)v1」を発表した。これはAIワークロードを念頭に置いて社内で設計した第1世代のAI推論アクセラレータ(チップ)だ。ユーザー体験を向上させるレコメンデーション用の深層学習モデル向けに特別に設計したものだ。
同社の製品やサービスにとってAIワークロードが重要になるに従い、同社のソフトウェア開発者は「AIモデルを構築するために最も効率的なアーキテクチャを提供するもの」としてMTIAを重要視するようになった。このため、Metaは長期的にMTIAに投資している。
MTIAの次世代バージョンについてMetaは、「独自のワークロードとシステムに対応する、ドメイン特化型シリコン向けのフルスタック開発プログラムの一部」と表現している。ランキングおよびレコメンデーション用モデル提供の効率化を目的としてコンピューティング、メモリ帯域幅、メモリ容量の適切なバランスをとることに重点を置いたアーキテクチャを採用している。これによって、ワークロードとの連携を維持しながら、MTIA v1のコンピューティングリソースとメモリ帯域幅を2倍以上に拡張するという。
既にデータセンターでMTIAを展開し、本番環境でモデル構築に使用中だ。多くのコンピューティングリソースをより重要なAIタスクに割り当てることができるようになったという。
カスタムシリコンへの継続的投資
Metaは、既存のインフラだけでなく、新しく、より高度なハードウェア(次世代GPUを含む)と連携させて動かせるようにカスタムシリコンを設計している。カスタムシリコンにおける目標を達成するために、コンピューティングシリコンだけでなく、メモリ帯域幅、ネットワーキング、容量、その他の次世代ハードウェアシステムにも投資する必要があり、引き続きカスタムシリコンへの投資を継続する意向だ。
生成AIワークロードのサポートを含め、MTIAの範囲を拡大することを目的としたプログラムを進行している。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- Meta、次世代オープンLLM「Meta Llama 3」を発表
Metaは、大規模言語モデル「Meta Llama 3」の8Bおよび70Bパラメーターモデルを発表した。 - Metaは生成AIの研究開発を支えるAIインフラ環境をどのように構築しているのか
AGIの構築をビジョンとして掲げるMetaは、生成AIインフラをどう構築しているのか。公式エンジニアリングブログで最新の取り組みを紹介した。 - 生成AIをデバイス上で実行するための「ヘテロジニアスAIチップセット」 2030年までに18億個出荷
ABI Researchは、2030年までにヘテロジニアスAI(人工知能)チップセットの出荷数18億個以上に達するとの予測を発表した。