Meta、大規模言語モデル「Llama」の最新版「Llama 4」を発表 3つのモデルを提供開始 それぞれの違いとは合計200言語で事前トレーニング

Metaは、パーソナライズされたマルチモーダル体験の構築に使用できる大規模言語モデルシリーズ「Llama 4」の最初のモデルを発表した。

» 2025年04月09日 08時00分 公開
[@IT]

この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。

 Metaは2025年4月5日(米国時間)、パーソナライズされたマルチモーダル体験の構築に使用できる大規模言語モデル(LLM)シリーズ「Llama 4」の最初のモデルを発表した。

 Metaは、「Llama 4 Scout」と「Llama 4 Maverick」を公開し、この2モデルの蒸留に使用したLlama 4教師モデル「Llama 4 Behemoth」(初期プレビュー段階にあり、トレーニング中)も発表した。

 Llama 4 ScoutとLlama 4 Maverickは、llama.comとHugging Faceからダウンロードできる。また、Metaの「WhatsApp」「Messenger」「Instagram Direct」、Meta.AI Webサイトで、Llama 4に基づく「Meta AI」サービスを試すことができる。

 Llama 4は、テキストおよびマルチモーダル体験を可能にするネイティブなマルチモーダルAI(人工知能)モデルだ。「最先端のインテリジェンスを備え、スピードと効率に優れている。『Mixture of Expert』(MoE:混合エキスパート)アーキテクチャを採用しており、テキストと画像の理解において業界をリードするパフォーマンスを提供する」と、Metaは述べている。

3つのモデルの特徴、それぞれの違いとは

Llama 4 Scout

 Llama 4 Scoutは、170億(17B)のアクティブパラメーターと16のエキスパートを持つマルチモーダルモデルだ。これまでの全てのLlamaモデルよりも強力であり、単一のNVIDIA H100 GPUで実行できるという。

 業界をリードする1000万(10M)トークンのコンテキストウィンドウを提供し、記憶、パーソナライゼーション、マルチモーダルアプリケーションなどのユースケースに対応する。広く報告されている幅広いベンチマークにおいて、「Gemma 3」「Gemini 2.0 Flash-Lite」「Mistral 3.1」を上回る結果を示している。

インストラクションチューニング済みのLlama 4 Scoutと他モデルのベンチマーク比較結果(提供:Meta) インストラクションチューニング済みのLlama 4 Scoutと他モデルのベンチマーク比較結果(提供:Meta)

Llama 4 Maverick

 Llama 4 Maverickは、17Bのアクティブパラメーターと128のエキスパートを持つマルチモーダルモデルだ。広く報告されている幅広いベンチマークにおいて「GPT-4o」や「Gemini 2.0 Flash」を上回り、推論とコーディングでは新しい「DeepSeek v3」と同等の結果を達成している(半分以下のアクティブパラメーターで)。

 実験的チャットバージョンは、LMArenaでイロスコア1417を記録している。

インストラクションチューニング済みのLlama 4 Maverickと他モデルのベンチマーク比較結果(提供:Meta) インストラクションチューニング済みのLlama 4 Maverickと他モデルのベンチマーク比較結果(提供:Meta)

Llama 4 Behemoth(トレーニング中の初期プレビュー版)

 Llama 4 Behemothは、288Bのアクティブパラメーターと16のエキスパートを持つMetaの最も強力なモデルだ。Metaは「世界で最も賢いLLMの一つ」だと述べている。幾つかのSTEMベンチマークにおいて「GPT-4.5」「Claude Sonnet 3.7」「Gemini 2.0 Pro」を上回る性能を示している。

インストラクションチューニング済みのLlama 4 Behemothと他モデルのベンチマーク比較結果(提供:Meta)
モデル トレーニングデータ パラメーター 入力モダリティ 出力モダリティ コンテキストウィンドウ(トークン数) 事前トレーニングに使用されたマルチモーダルデータのトークン数 ナレッジカットオフ(事前トレーニングに使用されたデータの最終更新時期)
Llama 4 Scout(17Bx16E) 一般に入手可能なライセンス取得済みデータと、Metaの製品およびサービスからの情報の組み合わせ。InstagramやFacebookで公開、共有されている投稿や、Meta AIとのユーザーのやりとりを含む。 17B(アクティブ)/ 109B(合計) 多言語テキストと画像 多言語テキストとコード 最大10M ~40T 2024年8月
Llama 4 Maverick(17Bx128E) 17B(アクティブ)/ 400B(合計) 多言語テキストと画像 多言語テキストとコード 1M ~22T
Llama 4 ScoutとLlama 4 Maverickの比較(提供:Meta)

 Metaは、Llama 4 Maverickが同クラスの類似モデルを上回るパフォーマンスを、極めて低コストで開発者に提供することを示すため、以下のグラフを紹介している。

LMArenaのイロスコアとコスト(提供:Meta) LMArenaのイロスコアとコスト(提供:Meta)

モデルの量子化

 Llama 4 ScoutはBF16(16bit)ウェイトとしてリリースされているが、int4形式に変換(量子化)することで、単一のNVIDIA H100 GPUで実行可能なサイズに収められるという。

 Llama 4 Maverickは、BF16量子化およびFP8(8bit)量子化ウェイトとしてリリースされている。FP8量子化ウェイトは、品質を維持しながら単一の「NVIDIA H100 DGX」で実行できるとしている。

多言語対応

 Llama 4では以下の12言語がサポートされているが、合計200言語で事前トレーニングされている。開発者はLlama 4のライセンスと使用ポリシーを順守する限り、以下の12言語以外の言語のためにLlama 4をファインチューニングできる。

  • アラビア語
  • 英語
  • フランス語
  • ドイツ語
  • ヒンディー語
  • インドネシア語
  • イタリア語
  • ポルトガル語
  • スペイン語
  • タガログ語
  • タイ語
  • ベトナム語

Copyright © ITmedia, Inc. All Rights Reserved.

スポンサーからのお知らせPR

Smart & Social 記事ランキング

本日月間

注目のテーマ

4AI by @IT - AIを作り、動かし、守り、生かす
Microsoft & Windows最前線2025
AI for エンジニアリング
ローコード/ノーコード セントラル by @IT - ITエンジニアがビジネスの中心で活躍する組織へ
Cloud Native Central by @IT - スケーラブルな能力を組織に
システム開発ノウハウ 【発注ナビ】PR
あなたにおすすめの記事PR

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。