>   >  マーザ・アニメーションプラネットが贈る全編Unity映像『THE GIFT』を「Unite 2016 Tokyo」で初披露&解説
マーザ・アニメーションプラネットが贈る全編Unity映像『THE GIFT』を「Unite 2016 Tokyo」で初披露&解説

マーザ・アニメーションプラネットが贈る全編Unity映像『THE GIFT』を「Unite 2016 Tokyo」で初披露&解説

4月4日(月)、5日(火)の2日間、東京お台場のヒルトン東京で、春恒例のUnity開発者向けカンファレンスイベント「Unite 2016 Tokyo」が開催された。本記事では「Unite 2016 Tokyo」で披露されたマーザ・アニメーションプラネット/MARZA ANIMATION PLANETの映像コンテンツ『THE GIFT』について紹介する。

TEXT & PHOTO_谷川ハジメ(トリニティゲームスタジオ
EDIT_山田桃子

「Unity」とは、3大メジャーゲームエンジンのひとつで、日本国内では、スマートフォンなどのモバイルプラットフォーム向けゲーム開発、イコール「Unity」と言っていいほど、ここ数年来、ゲーム開発プロジェクトを席巻している。今年は「Unity」がバージョン5にメジャーバージョンアップした昨年と比較してしまうと、話題としてはどうしても小粒になってしまうものの、DGC 2016に合わせて2つのベータ版がリリースされている。また、エンジンの外堀では、ゲームデータの分析を行えるサービス「Unity Analytics」がベータを終え、正式に「Unity」エンジンと統合されたほか、チーム作業を支援する「Unity Collaborate」環境のクローズベータも開始された。さらに周辺では、GDC 2015での予告通り「Unity」開発者の技能認定制度「Unity Certification」プログラムが始動するといったニュースも発表されている。このように「Unite Tokyo」は、例年その開催がGDCの直後となることから、「Unity」を取り巻く最新の話題を日本語で入手できる貴重な機会となっているのが特長だ。

ROOM1のセッション会場風景。どのセッションもおおむね満席で人気のものは立ち見が出る場合も

「Unite Tokyo」が今年で4回目ということもあってか、ゲームではない映像コンテンツが中心セッションとして扱われるあたり「Unity」も日本向けに随分とこなれてきた印象だ。
では次項から、「Unite 2016 Tokyo」のセッションの中でもCGWORLD読者にとって最も関心が高いであろうマーザ・アニメーションプラネット(以下、マーザ)による映像コンテンツ『THE GIFT』のメイキングを解説したセッションについて紹介したい。

『THE GIFT』トレーラー
2016年の「Unite Tokyo」も、例年の流れを受けて多数のセッションが用意された。なかでも要注目だったのは、先のGDC 2016でトレーラーが公開されたマーザ・アニメーションプラネットの映像コンテンツ『THE GIFT』だ

左から、エフェクトを担当する小泉薫央氏(マーザ)、エンジニアの守随辰也氏(マーザ)、ディレクターの加治佐興平氏(マーザ)、石橋誠也氏(ユニティ・ジャパン)、エンジニアの松成隆正氏(マーザ)

<1>5分、108ショットを3ヶ月で仕上げたワークフローとは

「Unite Tokyo」2日目に、「映像制作のゲームチェンジャー:メイキング オブ "THE GIFT"」と題して、マーザが、前日の基調講演で初公開した3DCGアニメ映像『THE GIFT』のメイキングセッションを行なった。本講演では、マーザから加治佐氏、守随氏、松成氏、小泉氏の4人が登壇したほか、制作に協力したユニティ・テクノロジーズ・ジャパン(以下「ユニティ・ジャパン」)から石橋氏も登壇者に加わった。

『THE GIFT』本編

総尺5分、108ショットを、アーティスト30人、その他エンジニア等を加えると、約40人の体制で制作された『THE GIFT』は、総制作期間は約8ヵ月であるものの、ストーリー開発とそれに平行するリサーチとテストプロダクションに3ヵ月、GDCでのトレーラー公開までに3ヵ月、そして「Unite Tokyo」での本編公開までに2ヵ月というタイトなスケジュールだったという。

『THE GIFT』の制作スケジュール。当事者たちにとっては時間はいくらあっても足りなかったことだろう

『THE GIFT』の制作は、マーザの通常の制作ワークフローのうち、レンダリング用シーンの構成から、ライティング、レンダリングまでの段階を、そっくり「Unity」に置き換える形で進められた。キャラクターや、背景、エフェクトを構成するモデルやアニメーションは、マーザでの既存のワークフロー通りMayaHoudiniで作成している。「Unity」にデータを渡すためのフォーマットに、ジオメトリのアニメーション情報を内在させたAlembicキャッシュを活用しているのも従来通りだ。

Alembicキャッシュを「Unity」にインポートした後、「Unity」環境でマテリアル設定をしてモデルに関連づけている

一般的なゲームプロジェクトの場合、「Unity」へのデータインポートには、Mayaや3ds MaxなどDCCツールの標準データ形式かFBXを使用するため、「Unity」は標準ではAlembicフォーマットをサポートしない。そこでマーザはユニティ・ジャパンと共同で、「Unity」用のAlembicインポーターを開発して対応している。本年1月のニュースで触れられていたAlembicインポーターは、本プロジェクトの副産物であったというわけだ。

映像業界において、Alembicが業界標準のフォーマットとまでは言いきれないが、本作のようにMayaとHoudiniとの間で頻繁にデータをやり取りする場合のほか、流体シミュレーションや大量のパーティクルエフェクト、同一モデルによる群衆アニメなどではメリットが大きい。キャラクターのアニメーションに関しても、クロスやフェイシャルでは、スケルタルアニメーションを超えるクオリティを出すことができる。さらに、シーンをレンダリングする段階では、アニメーションの計算量を大幅に減らすこともできる。デメリットとしては、頂点数やアニメーションの量、時間が増えれば増えるほど、リソースのデータサイズが大きくなってしまうことが挙げられる。

OpenEXR形式ではマルチチャンネルが取り扱える。コンポ前提の映像素材に有用なファイルフォーマットだ

「Unity」でのレンダリング結果も、やはりユニティ・ジャパンと共同で開発した「Frame Capturer」プラグインを活用して、OpenEXR形式で出力している。EXRは、HDRイメージを最終レンダリング結果となるFrameBufferの内容のみならず、複数のG-BufferやマテリアルIDといった情報をマルチチャンネルで1つのファイルに格納できるのが特長だ。30fps~100fpsで毎フレームリアルタイムにドローを繰り返すゲームとは異なり、複数の要素に分けて出力した素材をコンポジットして最終的な映像を得る映像制作においては、本作のようにEXR形式を採用するプロジェクトもかなり増えた。ファイルのハンドリングが簡便になり、必要になる可能性がある素材をもれなく揃えることができるというメリットがある一方、ファイルサイズが大きくなり、素材の要不要を見極めてレンダリング時間を削減するといったことがおろそかになるデメリットがある。もっとも、作品の最終品質を左右するコンポジット工程に注目して考えると、合成用素材が不足するより、終わってみればあまり活用しなかったという素材がでるくらいでちょうど良いし、コンポジットツールにEXRを取り扱いやすいNUKEを採用するマーザにとっては、デメリットよりメリットの方が大きいということだろう。

各プロジェクトでレンダリング対象シーンが異なるため厳密には比較できないが、それでも「Unity」でのレンダリングは圧倒的に高速だ

コンポジットが前提であり、ゲームのようにリアルタイムではないとはいえ「Unity」のレンダリング速度は良好で、1フレームあたり平均3秒、最大でも32秒で出力している。この値には、ファイルIOも含まれるから、実際にレンダリングの計算にかかった時間は、これよりも短いことになる。レンダリングの対象が異なり同一の条件下ではないものの、速度に一定の評価があるV-Rayをレンダラに使用した別プロジェクトとの比較で、平均で565倍、最大値の比較では677倍という好スコアを叩き出したというから驚きだ。レンダリングに使用したハードウェアについては言及がなかったため、どの程度の環境でのレンダリング時間かは分からないが、映像制作において十分"使える"レンダラと言えそうだ。プロジェクトの画づくりの要件を満たすなら、DCCツールと連携して動作するレンダラとの比較において、速度面では「Unity」に大きなアドバンテージがあると感じられた。

一連のシーケンスなど近似のシーンでソースデータを共有して省力化。マスターからのデータ収集もツールで自動化している

この「Unity」を活用した『THE GIFT』ワークフローの話題では、個々のショットを構成するシーンを、あくまでショットをベースにして組み立てているのも、映像制作会社らしい発想で興味深い。本作では、ショットありきで、そのショットの撮影を行うために必要なデータをファイルサーバから収集して、シーンを構成する仕組みが整えられている。組み立てられたシーンにライティングを施した後、レンダリングとキャプチャが行われるという流れで制作は進むのだが、一連のシーケンスでも、カメラやアニメーションを差し替えたシーンを、別のショット用のシーンデータとして複製しているのだという。

ゲームの場合、ゲームオブジェクトを配置したシーンが、唯一無二のゲームワールド(レベル、ステージ)であり、カメラやアニメーションといったデータは、ある瞬間のゲームの状態を構成するのに必要なデータの一要素にすぎない。もちろん、ゲームによっては、レベルが複数あるものも多く存在するが、カメラやアニメーションのみならずモデルが差し代わるような場合でも、ローディングペナルティでゲームプレイに悪影響がでない限り、ほぼ同一のシーンを複製して別のシーンとして用意することはない。特別な演出を行うカットシーンでもない限り、そもそもショットという概念すらない。

カメラやアニメーション以外は同じリソースデータを最大限再活用して制作工数削減に努めているといった趣旨の話題であったため、わざわざ別のシーンとして用意していることの理由は説明されなかったが、おそらくは、ショットごとに担当を割り振ってしまえば、個々の担当者が平行して作業してもお互いに悪影響を及ぼすリスクが少ないことと、基本的に同じだといっても、特定のショットに例外的な変更があっても対応しやすいからだろう。反対に、ショットごとに似て非なるシーンになってしまうリスクも増えそうなものだが、「Unity」でレンダリングしておしまいではなく、その後のコンポジットの工程がチェック機構となり最終的な画づくりの一貫性が保たれるということもあると思われた。

次ページ:
<2>アートとエンジニアリングを一体的に行うマーザの強み

特集