Meta社は10月4日(金)、動画生成AI「Meta Movie Gen」を発表し、ブログ記事論文機能紹介ページを公開した。Text to Video、サウンドの生成、動画のアレンジ(編集)、Image to Videoに対応するモデルとなり、生成される動画については、「業界初、異なるアスペクト比の長尺高精細ビデオを生成可能」だという。なおMeta Movie Genはまだ発表のみで、ユーザーが利用することはできない。

Meta Movie Genは、スタイルやトランジションなどをテキスト入力して、既存の動画をアレンジする機能も備える。キャラクターに持ち物を持たせたり、コスチュームを変更したり、背景のシーンを変更したりといった指示が可能だ。

Image to Videoでは、「人間のアイデンティティと動きを保持したパーソナライズド・ビデオを生成」できるという。

Text input summary: A woman DJ spins records on a rooftop in LA. She is wearing a pink jacket and giant headphones. There is a cheetah next to the woman. The background is a cityscape.
Text input summary: A man is doing a scientific experiment in a lab with rainbow wallpaper. The man has a serious expression and is wearing glasses. He is wearing a white lab coat with a pen in the pocket. The man pours liquid into a glass beaker and a cloud of white smoke blooms.

さらにMeta Movie Genでは、動画に対して環境音・効果音・インストゥルメンタルBGMを付与できる。テキスト入力に沿って、動画と一貫性のあるサウンドを最大45秒生成可能とのことだ。下図のサンプルでは、壮大な劇伴BGMをバックに、崖と人物に激しく降り注ぐ雨音が違和感なく鳴っている。

Text input: Rain pours against the cliff and the person, with music playing in the background.

MetaのAIリサーチチームはブログ記事内で、今回のMeta Movie Genを生成AI研究の「第3の波」と位置付けている。

Our first wave of generative AI work started with the Make-A-Scene series of models that enabled the creation of image, audio, video, and 3D animation. With the advent of diffusion models, we had a second wave of work with Llama Image foundation models, which enabled higher quality generation of images and video, as well as image editing. Movie Gen is our third wave, combining all of these modalities and enabling further fine-grained control for the people who use the models in a way that’s never before been possible.



我々の生成AI研究の最初の波は、画像・音声・動画・3Dアニメーションの作成を可能にするMake-A-Sceneシリーズのモデル(2022)で始まりました。拡散モデルの出現によって我々は、より高品質な画像・動画の生成と画像編集を可能にするLlama Image foundationモデル(2023)で第2の波を迎えました。Movie Genは第3の波です。モデルの利用者がこれら全ての様式を組み合わせて、これまでにない方法でさらにきめ細かに生成をコントロールできます。

■Meta Movie Gen公式ページ
https://ai.meta.com/research/movie-gen/

■ブログ記事:How Meta Movie Gen could usher in a new AI-enabled era for content creators
https://ai.meta.com/blog/movie-gen-media-foundation-models-generative-ai-video/

■論文:Movie Gen: A Cast of Media Foundation Models
https://ai.meta.com/static-resource/movie-gen-research-paper

CGWORLD関連情報

●Meta、3Dモデル生成AI「Meta 3D Gen」発表! テキストプロンプトから3DモデルとPBRテクスチャを高速生成、テクスチャ再生成による複数モデルのルック統一も

Meta社がText to 3Dの生成AI技術「Meta 3D Gen」の論文を同社Webサイトに発表。
https://cgworld.jp/flashnews/202407-meta3dgen.html

●動画生成AI「Pika 1.5」リリース! 新機能のPikaffectsで爆発・溶解・押しつぶしなどを手軽に適用、シネマティックショットにも対応

Mellis社が動画生成AI「Pika 1.5」をリリース。AIモデルがアップデートされ、6種類のユニークな効果をプロンプトなしで適用できる「Pikaffect」が利用できるようになったほか、映画『マトリックス』で知られるバレットタイム撮影やクレーンショットなどのシネマティックショットにも対応する。
https://cgworld.jp/flashnews/202410-Pika15.html

●Adobeが動画生成AIモデル「Firefly Video Model」ベータを今年後半にリリース! Premiere Proへの機能組み込みを予定、商用利用でも安全な設計である点を強調

Adobeは動画生成AIモデル「Firefly Video Model」のベータバージョンを2024年後半にリリースすることを発表、同モデルによる生成サンプルなどを公開した。
https://cgworld.jp/flashnews/202409-FireflyVideo.html

●Luma AIの動画生成AI「Dream Machine 1.6」リリース! カメラモーションのコントロールに対応、v1.5ではカスタムテキストのレンダリングにも対応

Luma AI社は動画生成AI「Dream Machine」の最新バージョン1.6を一般公開。Text-to-VideoとImage-to-Videoのどちらでも、テキスト入力のサジェストからカメラモーションの指示が行えるようになった。
https://cgworld.jp/flashnews/202409-DreamMachine.html