ニュース
Meta、「Llama 3.2」を公開 新たに追加されたビジョンモデルと軽量モデルはどう使える?:Llamaを活用したアプリケーション開発全体を簡素化する「Llama Stack」も発表
Metaは、同社の大規模言語モデルの最新版「Llama 3.2」を提供開始した。中小規模のビジョンモデル(11Bと90B)と、エッジデバイスやモバイルデバイスに搭載可能な軽量のテキスト専用モデル(1Bと3B)をラインアップしている。
Metaは2024年9月25日(米国時間)、同社の大規模言語モデル(LLM)の最新版「Llama 3.2」を発表した。
7月にリリースした「Llama 3.1」では、80億(8B)、700億(70B)、4050億(405B)パラメーターの3モデルを提供していたのに対し、Llama 3.2では、中小規模のビジョンモデル(11Bと90B)と、エッジデバイスやモバイルデバイスに搭載可能な軽量のテキスト専用モデル(1Bと3B)の計4モデルをラインアップしている。
これらのモデルはllama.comとHugging Faceで公開されており、Metaの幅広いエコシステムを構成するパートナーのプラットフォーム上ですぐに開発に利用できる。これらのパートナーにはAMD、Amazon Web Services、Databricks、Dell Technologies、Google Cloud、Groq、IBM、Intel、Microsoft Azure、NVIDIA、Oracle Cloud、Snowflakeなどが含まれる。
新たに追加されたビジョンモデルはどう使える?
関連記事
- Meta、オープンLLMの最新版「Llama 3.1」を発表 「4050億パラメーターモデル」が利用可能に
MetaはオープンLLMの最新版「Llama 3.1」を公開した。llama.meta.comとHugging Faceから無料でダウンロードできる。MetaのCEOであるマーク・ザッカーバーグ氏はLlama 3.1の公開に合わせて声明を発表し、オープンなAIの展望を語った。 - Meta、次世代オープンLLM「Meta Llama 3」を発表
Metaは、大規模言語モデル「Meta Llama 3」の8Bおよび70Bパラメーターモデルを発表した。 - オープンソースのLLMをローカルで実行できる「Ollama」Windowsプレビュー版、公開
Ollama Projectは、オープンソースの大規模言語モデルをローカル環境で実行できる「Ollama」のWindowsプレビュー版を公開した。
関連リンク
Copyright © ITmedia, Inc. All Rights Reserved.