ニュース
Meta、テキストからの動画生成モデル「Emu Video」とマルチタスク画像編集モデル「Emu Edit」を発表:画像生成基盤モデル「Emu」がベース
Metaは、最近発表した画像生成のための基盤モデル「Emu」に基づく2つの研究成果を発表した。拡散モデルに基づいてテキストから動画を生成するモデル「Emu Video」と、マルチタスク画像編集モデル「Emu Edit」だ。
Metaは2023年11月16日(米国時間)、9月開催の「Meta Connectカンファレンス」で発表した画像生成のための基盤モデル「Emu」(Expressive Media Universe)に基づく2つの研究成果を発表した。拡散モデルに基づいてテキストから動画を生成するモデル「Emu Video」と、マルチタスク画像編集モデル「Emu Edit」だ。
Emu Video:2ステップでテキストから動画を生成
Emu Videoは、まずテキストプロンプトから画像を生成し、次にテキストと生成された画像から動画を生成する。この2段階アプローチにより、高品質の動画生成モデルを効率的にトレーニングできる。毎秒16フレームで512×512ピクセルの4秒間の動画を生成することが可能だ。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- 生成AI入門:議事録を答えるチャットAI(RAGアプリ)を作ってみよう【プログラミング不要】
生成系AIの導入が急速に広がる今、その有用性や活用法が気になる方へ。一例としてプログラミング不要で、“会議の議事録を基に質問に答えてくれる「独自のチャットAI」”の作成を試みます。社会人の目線で、実践的な生成系AIの雰囲気をつかみましょう! - Stability AI、「LLaMA」ベースのオープンLLM「FreeWilly」を発表
Stability AIと同社のCarperAIラボは、オープンにアクセスできる新しい大規模言語モデル(LLM)「FreeWilly1」とその後継の「FreeWilly2」を発表した。 - OpenAI、画像生成AIの最新版「DALL-E 3」を発表
OpenAIは、画像生成AIの最新版「DALL-E 3」を発表した。テキストに忠実な画像を生成する能力が飛躍的に向上している。