ニュース
Meta、テキストから動画生成、動画編集、音声生成ができる基盤モデル「Meta Movie Gen」を発表:「競合する幾つかの業界モデルを超える性能」をうたう
Metaは、画像、動画、音声といったメディアを生成する基盤モデル「Meta Movie Gen」を発表した。
Metaは2024年10月4日(米国時間)、画像、動画、音声といったメディアをAI(人工知能)で生成できる基盤モデル「Meta Movie Gen」(以下、Movie Gen)を公式ブログで発表した。
Movie Genは、簡単なテキスト入力に基づく動画生成、パーソナライズされた動画生成、正確な動画編集、音声生成の4つの機能を提供する基盤モデル「Movie Gen Video」「Personalized Movie Gen Video」「Movie Gen Edit」「Movie Gen Audio」で構成されている。Metaは「これらの機能に関する人間による評価結果において、Movie Genは競合する幾つかの業界モデルを上回っている」と述べている。
各モデルは具体的に何が競合モデルを「上回っている」のか?
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- Meta、「Llama 3.2」を公開 新たに追加されたビジョンモデルと軽量モデルはどう使える?
Metaは、同社の大規模言語モデルの最新版「Llama 3.2」を提供開始した。中小規模のビジョンモデル(11Bと90B)と、エッジデバイスやモバイルデバイスに搭載可能な軽量のテキスト専用モデル(1Bと3B)をラインアップしている。 - Meta、オープンLLMの最新版「Llama 3.1」を発表 「4050億パラメーターモデル」が利用可能に
MetaはオープンLLMの最新版「Llama 3.1」を公開した。llama.meta.comとHugging Faceから無料でダウンロードできる。MetaのCEOであるマーク・ザッカーバーグ氏はLlama 3.1の公開に合わせて声明を発表し、オープンなAIの展望を語った。 - Meta、AIワークロード用に設計した次世代カスタムメイドチップを発表
Metaは、AIワークロード用に設計されたMetaカスタムメイドチップの次世代バージョンを発表した。最新バージョンのカスタムチップは、前世代と比較してパフォーマンスが大幅に向上しているという。