Metaは、パーソナライズされたマルチモーダル体験の構築に使用できる大規模言語モデルシリーズ「Llama 4」の最初のモデルを発表した。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
Metaは2025年4月5日(米国時間)、パーソナライズされたマルチモーダル体験の構築に使用できる大規模言語モデル(LLM)シリーズ「Llama 4」の最初のモデルを発表した。
Metaは、「Llama 4 Scout」と「Llama 4 Maverick」を公開し、この2モデルの蒸留に使用したLlama 4教師モデル「Llama 4 Behemoth」(初期プレビュー段階にあり、トレーニング中)も発表した。
Llama 4 ScoutとLlama 4 Maverickは、llama.comとHugging Faceからダウンロードできる。また、Metaの「WhatsApp」「Messenger」「Instagram Direct」、Meta.AI Webサイトで、Llama 4に基づく「Meta AI」サービスを試すことができる。
Llama 4は、テキストおよびマルチモーダル体験を可能にするネイティブなマルチモーダルAI(人工知能)モデルだ。「最先端のインテリジェンスを備え、スピードと効率に優れている。『Mixture of Expert』(MoE:混合エキスパート)アーキテクチャを採用しており、テキストと画像の理解において業界をリードするパフォーマンスを提供する」と、Metaは述べている。
Llama 4 Scoutは、170億(17B)のアクティブパラメーターと16のエキスパートを持つマルチモーダルモデルだ。これまでの全てのLlamaモデルよりも強力であり、単一のNVIDIA H100 GPUで実行できるという。
業界をリードする1000万(10M)トークンのコンテキストウィンドウを提供し、記憶、パーソナライゼーション、マルチモーダルアプリケーションなどのユースケースに対応する。広く報告されている幅広いベンチマークにおいて、「Gemma 3」「Gemini 2.0 Flash-Lite」「Mistral 3.1」を上回る結果を示している。
Llama 4 Maverickは、17Bのアクティブパラメーターと128のエキスパートを持つマルチモーダルモデルだ。広く報告されている幅広いベンチマークにおいて「GPT-4o」や「Gemini 2.0 Flash」を上回り、推論とコーディングでは新しい「DeepSeek v3」と同等の結果を達成している(半分以下のアクティブパラメーターで)。
実験的チャットバージョンは、LMArenaでイロスコア1417を記録している。
Llama 4 Behemothは、288Bのアクティブパラメーターと16のエキスパートを持つMetaの最も強力なモデルだ。Metaは「世界で最も賢いLLMの一つ」だと述べている。幾つかのSTEMベンチマークにおいて「GPT-4.5」「Claude Sonnet 3.7」「Gemini 2.0 Pro」を上回る性能を示している。
モデル | トレーニングデータ | パラメーター | 入力モダリティ | 出力モダリティ | コンテキストウィンドウ(トークン数) | 事前トレーニングに使用されたマルチモーダルデータのトークン数 | ナレッジカットオフ(事前トレーニングに使用されたデータの最終更新時期) |
---|---|---|---|---|---|---|---|
Llama 4 Scout(17Bx16E) | 一般に入手可能なライセンス取得済みデータと、Metaの製品およびサービスからの情報の組み合わせ。InstagramやFacebookで公開、共有されている投稿や、Meta AIとのユーザーのやりとりを含む。 | 17B(アクティブ)/ 109B(合計) | 多言語テキストと画像 | 多言語テキストとコード | 最大10M | ~40T | 2024年8月 |
Llama 4 Maverick(17Bx128E) | 17B(アクティブ)/ 400B(合計) | 多言語テキストと画像 | 多言語テキストとコード | 1M | ~22T | ||
Llama 4 ScoutとLlama 4 Maverickの比較(提供:Meta) |
Metaは、Llama 4 Maverickが同クラスの類似モデルを上回るパフォーマンスを、極めて低コストで開発者に提供することを示すため、以下のグラフを紹介している。
Llama 4 ScoutはBF16(16bit)ウェイトとしてリリースされているが、int4形式に変換(量子化)することで、単一のNVIDIA H100 GPUで実行可能なサイズに収められるという。
Llama 4 Maverickは、BF16量子化およびFP8(8bit)量子化ウェイトとしてリリースされている。FP8量子化ウェイトは、品質を維持しながら単一の「NVIDIA H100 DGX」で実行できるとしている。
Llama 4では以下の12言語がサポートされているが、合計200言語で事前トレーニングされている。開発者はLlama 4のライセンスと使用ポリシーを順守する限り、以下の12言語以外の言語のためにLlama 4をファインチューニングできる。
Copyright © ITmedia, Inc. All Rights Reserved.
Smart & Social 記事ランキング