廈門大学MAC Labテンセント復旦大学Yes Labからなる研究チームは10月16日(木)、単一の画像またはテキストプロンプトから高品質な3Dシーンを、単一GPUを用いて5〜10秒程度で生成する「FlashWorld: High-quality 3D Scene Generation within Seconds」を発表した。ライセンスは現在、学術研究目的でのみ利用可能なCC BY-NC-SA 4.0。

「FlashWorld」は、従来の3Dシーン生成技術の主要アプローチである「多視点指向(Multi-view-oriented、MV-oriented)パイプライン」(一貫性に問題あり)と「3D指向(3D-oriented)パイプライン」(ビジュアル品質が低い)という問題を解決するため、独自の学習戦略を採用した3Dシーン生成AIモデル。

▲多視点指向(Multi-view-oriented、MV-oriented)パイプラインには一貫性の問題がある
▲3D指向(3D-oriented)パイプラインにはビジュアル品質が低いという問題がある

まず、デュアルモード事前学習(Dual-mode Pre-training)として、動画拡散モデルの事前知識を活用して前述の多視点指向と3D指向 の両モードを同時にサポートする拡散モデルを事前学習する。そして、クロスモード事後学習(Cross-mode Post-training)による蒸留(Distillation)によって3D指向モードの品質の低さを克服する。

この蒸留プロセスにより、推論に必要なノイズ除去ステップが削減され、NVIDIA A100/A800 GPU1基で5〜10秒という高速生成が可能になり、従来の課題であった高品質と一貫性を両立させているという。

▲多視点指向モデルを教師としてビジュアル品質を向上させ、3D指向モデルを生徒として3Dの一貫性を維持させるという、蒸留による両パラダイムの強みの組み合わせを採用

■FlashWorld: High-quality 3D Scene Generation within Seconds(プロジェクトページ、英語)
https://imlixinyang.github.io/FlashWorld-Project-Page/

■FlashWorld: High-quality 3D Scene Generation within Seconds(GitHub)
https://github.com/imlixinyang/FlashWorld

Hugging Faceにはデモも用意されている。

■FlashWorld Spark Demo(Hugging Face)
https://huggingface.co/spaces/imlixinyang/FlashWorld-Demo-Spark

CGWORLD関連情報

●Google、3Dシーン再構築技術「Neural Exposure Fields(NExF)」発表! 照明条件が厳しい現実の撮影データからでも高品質かつ一貫性のある3Dシーンを再構築

Googleが新しい視点からの画像を生成する3Dシーン再構築技術「NExF: Learning Neural Exposure Fields for View Synthesis」を発表。AI・機械学習・計算論的神経科学分野の国際会議「NeurIPS 2025」に採択されている。
https://cgworld.jp/flashnews/01-202510-NExF.html

●NVIDIAら、接触しても貫通しない新しいコンタクトモデル「Offset Geometric Contact」発表! 布や糸の接触シミュレーションを貫通なし、アーティファクトなしで高速処理

NVIDIAとユタ大学からなる研究チームが、新しいコンタクトモデルに関する論文「Offset Geometric Contact(OGC)」を発表。布や髪の毛のシミュレーションにおいて、オブジェクト同士が貫通しないことを保証しつつ、計算のオーバーヘッドを最小限に抑えることを目的とする。ソースコードはNewtonとGaiaの2種が公開され、どちらもオープンソース(Apache-2.0ライセンス)。
https://cgworld.jp/flashnews/01-202510-OffsetGeometricContact.html

●NVIDIAら、モーキャプデータのアーティファクトを自動修正する新手法「StableMotion」をオープンソースで公開!

サイモンフレーザー大学、エレクトロニック・アーツ、カナダ国立研究機構、NVIDIAからなる研究チームが、モーションキャプチャデータに含まれるアーティファクト(不自然な動き)を自動で修正する新しい手法「StableMotion」を発表。オープンソース(MITライセンス)で公開した。
https://cgworld.jp/flashnews/01-202509-StableMotion.html