中国ShengShu Technology(生数AI、ShengShu AI HK Limited)は1月30日(金)、動画生成AIモデル「Vidu Q3」をリリースした。最大16秒の音声付き動画の生成が可能となり、Text to Videoに加え、Image to Videoも強化されている。公式ワークスペースまたはAPI経由で利用でき、公式ワークスペースでは無料または有料サブスクリプション(月10ドル〜)により利用できる。
Vidu Q3 Now Available Worldwide! Built for Storytelling. Sound and Vision Created Together. Imagination Without Limits.
・16-second audio-visual generation
・Perfectly synced sound and visuals in 1080p high definition
・Full camera control with seamless shot switching
・Text rendering in multiple languages, including Chinese, English, and Japanese
・Professional-grade production for animation, short drama, and filmVidu Q3、全世界で公開開始! 物語を紡ぐために。 映像と音の同時生成。想像力は無限大へ。
・16秒間の音声付き動画生成
・1080pの高画質で、音と映像が完全に同期
・自在なカメラ制御とシームレスなショット切り替え
・日本語、中国語、英語を含む多言語テキストレンダリング
・アニメ、ショートドラマ、映画制作に対応するプロフェッショナル品質
「Vidu Q3」は、最大16秒の、より複雑な物語性や展開を持った映像表現を可能とする動画生成AIモデル。となった。また、映像の内容に合致した音声の自動生成機能も統合されている。生成品質面では物理シミュレーション能力が向上。現実世界の挙動に近い自然な動きを再現する。さらに、キャラクターや背景の一貫性を維持する能力も強化されたほか、テキストプロンプトやリファレンス画像に対する理解度も深まり、意図通りの構図や動きをより正確に反映できるようになっているとのこと。
— Vidu AI (@ViduAI_official) February 3, 2026
— Vidu AI (@ViduAI_official) February 3, 2026
— Vidu AI (@ViduAI_official) February 3, 2026
日本のユーザーによる、Vidu Q3の音声品質の高さなどを高く評価するSNS投稿も話題を呼んでいる。
ViduQ3の声の演技も良いですね
— てばさき (@tebasaki3D) January 31, 2026
音質も良いし、この音声で色々作りたくなってくる…でも音声別録りでクレジット浪費するのは辛いよね… pic.twitter.com/96n6PLqRQ9
方言検証#YesVidu #ViduQ3 pic.twitter.com/NsxEUETaEq
— Mankyu | AI動画生成 (@manaimovie) February 1, 2026
■Vidu Q3|16秒の音声付き動画生成AIモデル(Vidu AI)
https://www.vidu.com/ja/vidu-q3
プランと価格
Viduの公式ワークスペースの利用には、無料プランと3つの有料サブスクリプションプランが用意されている。フリープランでは、月間80クレジットが付与され、約4秒の動画生成が可能だが、生成された動画には透かしが入り、商用利用は不可。生成速度は標準的なキュー配置となる。有料のスタンダードプランは月払いで月10ドル(約1,530円)。毎月300クレジットが付与され、透かしなし、一般商用利用に対応。生成の優先順位も高くなる。
■Viduの料金プラン
https://www.vidu.com/ja/pricing
APIについて
開発者向けの「Vidu API」もVidu Q3に対応。利用には別途クレジットの購入やAPIキーの発行が必要となる。
■Vidu API
https://platform.vidu.com/
CGWORLD関連情報
●画像生成AI「Niji Journey(にじジャーニー)」最新モデル「Niji 7」リリース! 画像全体の一貫性の向上、プロンプト追従性能の改善
MidjourneyとSpellbrushがアニメ特化型画像生成AI「Niji 7(にじジャーニー バージョン7)」をリリース。画像全体の一貫性の向上、プロンプト追従性能の改善が実装された。公式YouTubeではリリースを記念して、Niji 7とNiji Videoを用いて制作したMVが公開されている。
https://cgworld.jp/flashnews/01-202601-Niji7.html
●マルチモーダル生成AIモデル「Wan2.6」リリース! 1080p15秒、リファレンスキャラクターのインポート、マルチショット生成によるストーリーの自動構築など
Tongyi Labがテキスト・画像・音声入力を統合し、リアルな画像と動画を生成するマルチモーダル生成AIモデル「Wan2.6」をリリース。特定のリファレンスキャラクターを異なるシーンへ一貫性を保ったまま配役する「Starring」機能、単純な指示から複数のカットで構成される物語を自動構築する「マルチショット・ナラティブ」機能、ネイティブレベルでのA/V同期による自然な対話シーン、1080p、緻密なライティング制御などの特徴を備える。Wan2.6は公式プラットフォームやサードパーティ製プラットフォーム、APIから利用可能。
https://cgworld.jp/flashnews/01-202512-Wan2.6.html
●マルチモーダル動画生成AIモデル「Kling O1」リリース! テキスト・画像・動画・特定の被写体を組み合わた入力に対応、動画生成から編集・スタイル変換まで1モデルに統合
快手がマルチモーダル動画生成AIモデル「Kling O1 動画モデル」をリリース。テキストと参照画像、既存の動画、特定の被写体(エレメント)を混在させて指示を出し、3秒から10秒までの動画を生成できる。チャットによる複雑な動画編集やスタイル変換の機能も統合。公式Webアプリでは無料・有料プラン共に利用できるほか、各種サードパーティ製プラットフォームで提供されている。
https://cgworld.jp/flashnews/01-202512-KlingO1.html