OpenAIは、テキストから最大60秒の動画を生成するAIモデル「Sora」を発表した。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
OpenAIは2024年2月15日(米国時間)、テキストから最大60秒の動画を生成するAI(人工知能)モデル「Sora」を発表した。
Soraは、複数のキャラクターや特定の種類の動き、細部まで正確に表現された被写体、背景がある複雑なシーンを生成できる。ユーザーがプロンプト(指示)で要求したものだけでなく、それらが物理世界にどのように存在するかも理解しているとしている。
SoraのWebページでは、Soraによって生成された非常にリアルなさまざまな動画がそれぞれのテキストプロンプトとともに公開されている。
OpenAIは現在、Soraをレッドチーマー(誤った情報、憎悪に満ちたコンテンツ、偏見などの分野の専門家)に、危険やリスクの評価用に提供している。また、多くのビジュアルアーティスト、デザイナー、映画製作者にもアクセスを許可している。クリエイティブの専門家に最も役立つSoraの改良方法について、フィードバックを得たい考えだ。
OpenAIは、こうしたフィードバックを踏まえるとともに、レッドチーマーとの協力によるテストを経て、重要な安全対策を講じた上で、SoraをOpenAI製品で利用できるようにする計画だ。
また、SoraをOpenAI製品に展開する場合は、Soraによって生成された動画にC2PA(Coalition for Content Provenance and Authenticity)メタデータを含ませることで、Soraによって生成されたことが識別できるようにするとしている。
OpenAIは、現実世界との相互作用を必要とする問題の解決に役立つモデルをトレーニングすることを目標に、動く物理世界を理解し、シミュレートするようにAIを教育している。
Copyright © ITmedia, Inc. All Rights Reserved.