2016年7月24日(日)から7月28日(木)までの5日間にわたり、アナハイムで「SIGGRAPH 2016」が開催された。会期中、3日目となる26日(火)には、「Real-Time Live! 」と銘打って、多くのセッション形式のコマとは異なる趣向で、アワード形式のイベントが行われた。「リアルタイムで処理されるグラフィクス」であること、「新しい技術を採用したインタラクティブなアプリケーション」であることが、審査の基準となっており、昨今のトレンドを受けて本年のエントリー作品には、VR技術を活用したものが多数見受けられた。総勢で13チームが実際に目の前でパフォーマンスを披露するという催しは、多様な展示が用意されている「SIGGRAPH」と言えども他にあまり例を見ないことから、遅ればせながら本イベントの模様をお伝えしたい。

TEXT&PHOTO_谷川ハジメ(トリニティゲームスタジオ
EDIT_沼倉有人 / Arihito Numakura(CGWORLD)



<1>圧巻のパフーマンス!『Hellblade』のライブパフォーマンスキャプチャ

結果から先に言うと、本年の最優秀作品は、Ninja Theory、Epic Games、Cubic Motion、3Lateral Studioの4社がコラボレートして開発中のゲーム『Hellblade』のライブパフォーマンスキャプチャが受賞した。「From Previs to Final in Five minutes: A Breakthrough in Live Performance Capture」と題した『Hellblade』の持ち時間では、「GDC 2016」と同様にステージ袖で、ヒロイン役を演じる女優がまさにリアルタイムでゲームのカットシーンに演技を付け、命を吹き込むというパフォーマンスをやってのけた。昨年の最優秀作品に、Epic GamesによるUnreal Engine 4(以下、「UE4」)世代の技術デモである『A Boy and His Kite』が選ばれていることから、Epic Gamesは2年連続の受賞ということになり、リアルタイムCGの分野におけるUnreal Engineの強さを見せつける格好となった。

SIGGRAPH 2016 "REAL-TIME LIVE!"

見事ウィナーに輝いた『Hellblade』チーム

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

イベント本番直前までステージ上で最終確認を行う登壇者の姿もあったが、ほとんどの登壇者に慌てた様子はなく、多くはお祭りを楽しもうとリラックスムードで待ち時間を過ごしていた。総勢で50名以上はいただろうか。本イベントの規模が非常に多いことから、出番を待つ登壇者のためにかなりの席数が割かれていた

「Real-Time Live!」でのプレゼンテーションの傾向は、大きく分けて3つある。1つ目は、ひたすらリアルタイムレンダリングで間に合う範囲のグラフィクス品質をアピールしたものだ。冒頭で述べた『Hellblade』のライブパフォーマンスキャプチャは、この傾向のものに、さらに付加価値をもたせたものと考えていい。2つ目は、昨今のトレンドを受けてVR/AR技術を応用したもので、新しいユーザー体験を意図したものから、コンテンツの制作環境においてVR/ARを活用しようというものまで、多くの作品がエントリーしていた。3つ目は、従来からあるオーソドックスなスタイルのゲームでありながら最新の工夫を凝らし、リアルタイムだからこそできる要素を強調したものだ。ひとくちに「リアルタイム」と言っても、その取り組みには大きな幅があり、どの作品からも各チームの個性が強く感じられた。

1つ目のレンダリング品質を追求したものとしては、UE4をベースにした『Hellblade』のライブパフォーマンスキャプチャに加え、Unity TechnologiesのUnity 5をアピールする技術デモ『Adam』、Naughty Dogのプレイステーション4向けゲーム『Uncharted 4』のゲームプレイからカットシーンへのシームレスな移行のデモ、ピクサーの映画『ファインディング・ドリー』におけるアニメーション制作環境「Presto animation software」が挙げられる。『Hellblade』と『Adam』は汎用のゲームエンジンによる実際のゲーム画面出力、『Uncharted 4』はインハウスの描画エンジンによるゲーム画面出力、「Presto animation software」はインハウスの描画エンジンによる映画用アニメーション制作環境に対する出力と、それぞれの出力ターゲットは異なるものの、どれも当然のように物理ベースのレンダラが採用されておりモダンな3DCG出力が得られることに違いはない。それぞれが出力ターゲットとしているデバイスのCPU/GPU性能に依存して、フレームレートと描画品質がトレードオフの関係にあるということにも変わりはない。 「Presto animation software」のみ製作環境ということで、レンダリング品質を上げる目的が、直接的にエンドユーザーにリッチな映像体験を与えるというところにないものの、アニメーターの環境にリアルタイム描画されるものを導入することで、最終出力に近い形で確認しながらアニメーション製作を行うことができ、間接的にユーザー体験の向上につながるのは想像に難くない。

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

Unity 5の技術デモ『Adam』は、3月の「GDC 2016」で初期バージョンが公開され、先日アムステルダムで開催された「Unite Europe 2016」でフルバーションが公開されており、Unity Technologiesのセッションや他のイベントでも解説が加えられている。一見プリレンダリングのカットシーンに思えるが、このクオリティでリアルタイムレンダリングを実現している

Unity Adam demo - the full film
異形のヒューマノイドに姿を変えられた主人公を拘束していた装置のチューブのアニメーションには、Next LimitのCaronteFXが使用されている


  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

Naughty Dogのプレイステーション4向けゲーム『Uncharted 4』は、本年5月10日に発売されたばかりの新作だ。そのメイキングについては、昨年の「E3 2015」あたりから情報が出ていたが、今回の「Real-Time Live!」では、ゲームプレイとシームレスに繋がるカットシーンをテーマにかなり細かいピンポイントの部分が解説されていた。映像分野ではカメラが寄ると、カメラとの距離に応じて情報量を変化させながらレンダリングするというのは珍しくないかもしれないが、コンソール機の場合、演算性能はもとより、オンメモリにできるリソースの制約といった面もあり、なかなか厳しい場合も多い。『Uncharted 4』では、アーティスティックな方法論ばかりに頼らず、シェーダーを活用してクリアしている

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

PIxarでは、レンダラのRenderManと共に、アニメーションツールとして、このPresto animation softwareを活用している。上記の2つとは性質が異なり、こちらは開発者向けの環境を可能な限り「リアルタイム」にして、公開する作品の品質を向上させようというアプローチだ。実際の作業風景の実演を見るに、相当数のオブジェクトがあるシーンでも軽快にリアルタイム動作しているように感じられる。シーン製作の序盤は、ライティングやメッシュのディティールを簡略化してドローするようにし、作業工程がファイナルイメージに近づくほどツールのビューポート上のレンダリング品質上げて作業するという手法自体は、多くのプロダクションでもおなじみの方法論だろう

これらの中で(というか、全エントリー作品の中で)、やはり頭ひとつもふたつも抜きん出ていたのは、『Hellblade』のライブパフォーマンスキャプチャだろう。会場の空間にゆとりがあったからか、今回のライブキャプチャでは、ゲーム開発に活用されているのと同じキャプチャ環境が用意されていたようだ。「GDC 2016」の際には、会場の関係から、加速度センサー式のキャプチャシステムを用いており、ヒロイン役の女優が動き回って立ち位置を移動しながら演技するようなシークエンスではなかった。ところが、今回のライブパフォーマンスキャプチャでは、光学式のキャプチャシステムを用いており、カメラアニメーションも合わせて、実際の撮影現場さながらにライブキャプチャを行なっていた。

シークエンスは、鏡に映し出された自分の姿と対峙したヒロインの女戦士セヌアが、鏡の中から抜け出した幻影の自分が発する制止の言葉を振り切り、決意も新たに果敢に鏡の中に進んで行く、といった筋書きで進行するのだが、この場面に登場するキャラクターは結局のところセヌアひとりであることから、実体と幻影の双方をひとりの女優が演技する。プレゼンテーションでは、まず鏡の中から出てくるセヌアの幻影の演技から撮影が行われ、続いてセヌアのアップカット、最後にセヌアの実体の演技と続いた。最初に撮影された幻影の演技とカメラのキャプチャストリームは、即座に「UE4」開発環境に取り込まれ、女優の前に設置したモニタにフィードバックされる。続く実体の撮影では、モニタを見ながら演技することによって、直前にキャプチャされた自身による幻影のセヌアとの息のあった掛け合いを無理なく実現させていた。

これぞ「Real-Time Live! 」といった感のある『Hellblade』のライブパフォーマンスキャプチャ。ゲーム開発元Ninja Theoryのクリエイティブディレクター、Tameem Antoniades氏がカメラキャプチャを実演した。最初のキャプチャ実演はヒロインの幻影のアクションで、アクトレスの演技がリアルタイムにUE4環境に取り込まれてシーンが再生されていく。キャプチャはフルボディにとどまらず、フェイシャルやボイスをも同時に収録している。なお、このムービーは「Real-Time Live! 」の会場で、とっさに手持ちのスチル用カメラで「リアルタイム」撮影したものであるため、音飛びやピント迷いがあるのはご容赦を

2本目の動画は、ヒロインの実体としての演技をキャプチャしているものだ。ムービーの最後の方に、向かって左側、女優の進行方向にモニタが設置されているのがわかるだろうか。女優は常にこのモニタを確認しながら、すでに撮影済みの幻影と呼吸を合わせていた。対して、カメラキャプチャ担当のTameem Antoniades氏は、実体を演じている女優が通り過ぎた後も、床にマーキングされた幻影がしゃがみこんだ位置にカメラを向けて撮影を続けていた。このようにカメラキャプチャを行えば、幻影と実体をそれぞれ撮影したカメラのうち、どちらのカメラアニメーションを選択するのか、またカット割りを行うのか、行うとしてそのタイミングをどうするのかを、後で追い込むことができるのだろう

このライブパフォーマンスキャプチャは実にパワフルで、実際にはここまでリアルタイムで撮影する必要はないことから、多くのモーションキャプチャの現場で活用できそうだと感じられた。もちろん、すでにあるキャプチャ環境に合わせ込むための検証が必要で、Epic Gamesによる協力の下、万全の体制で制作している『Hellblade』のようにはいかない部分はあると思われるが、収録直後に、実際の出力画面に近いかたちで演技の確認ができることと、モーションアクターに対して自身や他のアクターの演技をフィードバックできることは非常に大きい。事後的なキャプチャデータの加工作業とのバランスも大きく見直せるのではないだろうか。極端な話、映像、ゲームを問わず、レンダラとしてUE4をまったく使わないプロジェクトだったとしても、モーションキャプチャの収録現場にUE4を活用したインスタントレビューを導入する価値があるように感じられた。

Ninja Theoryによって、「Real-Time Live! 」終了後、ほどなくして公開されたメイキングムービー。あまりに手際が良いことから、あらかじめ準備していたようだ。本ムービーに登場する収録風景も「Real-Time Live! 」本番でのものではなく、リハーサル時点のものを使用していると思われる

▶︎次ページ:︎
<2>Google「Tango」はモバイル体験を次世代へ進化させるか!?

[[SplitPage]]

<2>Google「Tango」はモバイル体験を次世代へ進化させるか!?

2つ目の大きなくくりであるAR/VR活用リアルタイムは数が非常に多く、7チームがエントリーしていたが、まだまだVR/ARが立ち上がる時期ということもあってか、コンテンツそのものは、PlasticのPlayStation VR(以下、PSVR)対応ゲーム『Bound』と、同じくMotionalの『Gary the Gull』の2作品にとどまっていた。GoogleによるAndroidモバイルデバイス向けのAR技術「Tango」、ILM'のARプログラミングフレームワーク「Zeno application framework」、Oculusの「VR Drawing」の3チームは、技術デモの域を超えたアプリケーションが開発されていることもあって、応用の可能性が視覚的にわかりやすいものであったが、Meta CompanyによるARヘッドセットデバイス「Meta 2」と、NVIDIAのゲーム開発フレームワークGameworksの一部を構成する、弾性を持つ固形物のシミュレーション「Real-Time Simulation of Solids with Large Viscoplastic Deformation」の2つのプレゼンテーションは、デモアプリケーションを通じてのものではあったものの、開発環境上のデモということもあって、地味さは否めない。これらは、どちらかというとコンテンツのベースにあるテクノロジが主役であるため、このようなストイックなものになったのだろう。

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

PS4版ではなく、PSVRの開発機を用いて行われたPlasticによる「Bound」のデモ。プレイヤーが操作するキャラクター、プロシージャルなゲーム空間とデストラクションが幻想的だ。会場のモニタスクリーンにミラー出力された画面からは、PSVRだからといってプレイヤーの視点がゲームキャラクターの一人称視点になるわけではなく、プレイステーション4版と同一の視点で操作するように感じられた。プレイヤーのコントローラーからの入力、ゲームカメラの位置制御、PSVRのヘッドトラッキングによるカメラの回転の関係がどういったフィールに繋がるか、実際に体験してみないとちょっと想像がつかないため、今後プレイする機会が楽しみだ

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

上記の「Bound」以上にゲームと呼んで良いものか戸惑うのが、Motionalの「Gary the Gull」だ。ムービーとゲームの融合コンテンツに登場するカモメのGaryは、要するに日本でいうところのゆるキャラということになるのだろう。この手のキャラクターが受け入れられるかは、背景となるカルチャーにも依存する部分が大きく、コンテンツ自体の成功は未知数だ。VRやボイスに反応するといったテクノロジ云々の問題ではなく、キャラクター性に依存するコンテンツの成否は本当に分からない

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

ILM'の「Zeno application framework」を活用したiPadアプリは、iPadに取り付けた位置ドラッキングデバイスで取得した情報に基づいてAR体験を実現している。デモは日常の空間にちょっとした不思議を織り交ぜるといった趣向で、テーブルの上に出現させた飛行機が飛び立ったり、ソファに座して現れたヒーローが飛翔して、突き破った天井から顔を覗かせるといったエンターテイメント性の高いものを準備していた

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

Oculusの「VR Drawing」は、本年下半期にリリースが予定されているOculus Touchを使って、VR空間内の平面にドローイングを行う製作環境だ。ドローイングを行うのは2D平面といっても、VR空間自体はもちろん3Dであるため、キャンバスを三次元的に移動させることもできるようになっていた。Oculus Story Studioの最新映像作品「Dear Angelica」の製作に活用されているというが、VR空間で上映する映像コンテンツをVR環境で作成したほうが直感的で良いものができるというメリットと、空間把握や新しいデバイスの操作に慣れるまでの生産性低下というデメリットのどちらが勝るのかは微妙なところではないかと感じる。また2Dでドローイングをする人の中には、3D空間での作業をどうしても越えられない壁として感じる人も出てきそうだ

Illustrative filmmaking with Oculus Story Studio

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

Meta CompanyのARヘッドセット「Meta 2」は、その価格が$949と、10万円を切る価格でプレオーダーが受け付けられている。廉価で現実的に手に取れる範囲のARデバイスとして、その期待感から注目を集めているが、今回のプレゼンテーションでは、「Unity」開発環境に表示させたキューブをハンドジェスチャーで動かすというビジュアル的に地味なデモであったため、会場の反応は今ひとつのように感じられた。「Meta 2」の公式サイトでは、近未来的な利用シーンが散りばめられた映像が公開されているが、実態としては、アプリケーションレベルや現実的なユースケースが追いついていない印象だ。ARを開発環境に活用する際にも、既存の入力デバイスとは異なったハンドジェスチャーにふさわしい新しい発想のメタファーが必要になるだろう

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

NVIDIAの弾性固体の形状変化シミュレーションそのものは、非常に価値のあるものだと言っていい。ただ、本イベントでのデモで行なったような、ハンドトラッキングによる入力で、オブジェクトを切断したり、変形や破裂させるといったAR的な操作は逆効果であったように思う。直感的なハンドジェスチャーによる入力で小気味よく軽快に操作されていれば、見ていて気にも留めないのだろうが、実際には何ともモッサリとした印象で、悪い意味で注目を集めてしまったように思う。結果的に優れたリアルタイム形状変化シミュレーションよりも、イマイチなAR操作の方に目が向いてしまった感がある

そんな中で、この分野で最も目を惹いたのは、GoogleによるARフレームワーク「Tango」だ。すでにAndroid端末を販売するベンダーからは対応デバイスがリリースされており、アメリカ自然史博物館とコラボレートした『Dinosaurs Among Us』というAR教育アプリが動作している。アプリそのものは、教育向けということで、カメラで撮影し続けている現実空間に3DCGの恐竜をリアルタイム合成して、その恐竜に親しみを持って学んでもらおうという意図で製作されている。本イベントでのプレゼンテーションでも、タブレットの画面を通して、実際にはその場にいない恐竜があたかもその場所にいるかのような、ちょっとした仕草のアニメーションを繰り返すさまが見てとれた。

ただ、プレゼンテーションの最後にデモが行われたように、Google「Tango」のAR技術のキモは、ハードウェア的に搭載された深度センサーと、取得したデータからリアルタイムに高速にボクセル化して、センサーで取り込んだ現実空間をそのままレンダリングしてしまえる部分だ。残念ながら、レンダリングは、速度的にも品質的にも少々物足りないものだったが、処理を行なっているのがモバイルデバイスであったことを考えると、将来に期待が持てるテクノロジと言えるだろう。「Dinosaurs Among Us」のARアプリだけを見ていると、ふーん、で終わってしまいかねないが、重要なのはこちらの方だ。

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

ARアプリ『Dinosaurs Among Us』は、確かに博物館や科学館などの、楽しく学ぶちょっとした非日常のエンターテイメントにはちょうど良いのかも知れない。後日、エキシビジョンブースを訪ね、プレゼンテーションを行なったZack Moratto氏に質問してみたところ、現状のアプリの実装では、恐竜が歩き回ったりといった大きなアクションはなく、恐竜自体も実際の恐竜のスケールを反映させたものではないとのことだった。一方で、深度センサーで周囲の環境をスキャンして、即座に3D空間をレンダリングするデモについては、ボクセル密度のパラメータを上げて、高品質なレンダリング結果を得ることはできるとのことだった。試しにその場でやってもらったところ高負荷のためタブレットがフリーズしてしまった

Dinosaurs Among Us Google Tango demo at Google IO16
この動画は本年5月の「Google I/O 2016」時のものである


▶︎次ページ:︎
<3>正統な進化を続ける『ファイナルファンタジーXV』はモダンなRPGの王道を行く

[[SplitPage]]

<3>正統な進化を続ける『ファイナルファンタジーXV』はモダンなRPGの王道を行く

最後に紹介するのは、純然たるゲームコンテンツとして新規性をアピールするもので、スマートフォン向けファーストパーソンシューター(以下、FPS)『Afterpulse』を実現させたDigital Legends Entertainmentの「Karisma engine」と、ご存知スクウェア・エニックスの『ファイナルファンタジーXV』(以下、FFXV)が該当する。

ご承知の通り、ゲームでは、演出としてシーンの情景をシネマティックに見せるカットシーンの部分を除いて、プレイヤーの入力に応じてリアルタイムに画面に結果を反映させなければならない。一般的にアクション性の高いものほど高頻度なものになり、アクション性の低いものほど低頻度で済む傾向にあるが、現世代のゲームでは、比較的アクション性の乏しいRPGにおいても、あらかじめ用意されたパターンの組み合わせで記号的に描写するにとどまらず、何かしらプレイヤーの置かれている状況を反映させ、プレイのルーティーンに飽きがこないように工夫が凝らされている。

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

Digital Legends Entertainmentが、外部のミドルウェアに頼らず、完全に自前で開発したモバイル用ゲームエンジン「Karisma engine」のデモは、同社の看板FPSタイトル『Afterpulse』のゲームプレイを通じて行われた。本来はPC用のゲームエンジンが、マルチプラットフォームの一環としてモバイルをもサポートするパターンとは異なり、当初よりモバイルに特化して開発されてきたエンジンだ。高速動作の秘訣は、iOS版ではApple'のMetal APIとフル64bitのサポートにある

極めてアクション性の高いゲームコンテンツとしては、FPSが挙げられる。今回エントリーしたFPS『Afterpulse』においても、常にプレイヤーキャラクターに対して何らかのインタラクションが続くと言っていい。FPS『Afterpulse』を実現するためにDigital Legends Entertainmentがインハウスで独自に開発したのが「Karisma engine」で、直接光、間接光の取り扱いや、ノーマル、アンビエントオクルージョン、デプスといったモダンなエンジンが備える機能をひと通り有する。これが、スマートフォンで、かなり軽快に実現しているというのだから驚きだ。 一方のRPGにおいても、『FFXV』の取り組みはひと味ちがっている。同作のシリーズ作に、『FFXI』や『FFXIV』といった、RPGにしては高頻度でしかも複数のプレイヤーからのインタラクションが発生するMMOゲームが存在する流れを受けてか、スタンドアローンの『FFXV』においてもプレイヤーキャラクターはゲームワールドに対して影響を与え、また逆にワールドからも影響を受けるように設計されている。具体的には、世界の中で変化する天候、コンバットでのモンスターAI、アニメーション制御、魔法効果のフィールドへの波及といった部分で実現させており、以前の取材におけるスクウェア・エニックスのリアリティへの取り組みは、すでにモデルやアニメーションを乗り越えてAIの域にまで達しているという発言を思い起こさせた。

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

  • SIGGRAPH 2016 "REAL-TIME LIVE!"
  • SIGGRAPH 2016 "REAL-TIME LIVE!"

伝統的に戦闘にリアルタイム要素を取り入れてきた経緯もあってか、「ファイナルファンタジーXV」は、RPGの中では、かなりリアルタイム性の高い部類に入る。昼夜、天候といったワールド環境の変化にとどまらず、エネミーモンスターとの戦闘ではリアルタイム性が高いことを活かした表現がなされている。たとえ同じエネミーとの遭遇線であったとしても、遭遇地点の環境が異なればゲームワールドから受ける影響も異なるということになり、その場所に応じたものになる。逆にプレイヤーパーティからの世界への影響も、ゲームワールド内の環境が異なれば、自ずと変化することになる。プレゼンテーションで強調されていたのは炎系の魔法エフェクトの例で、エネミーに対して記号的に効果エフェクトが表示されるだけでなく、周囲の環境に対しても延焼しているのがわかる

FINAL FANTASY XV Trailer Feat. AFROJACK / ファイナルファンタジー15
本年6月に公開されたバトル中心のトレーラー


両作品ともに、デバッグモードを駆使した内容的に充実した実演デモであり、インハウスエンジンの普段は見られない裏側の一端を垣間見る大変貴重な機器であったが、大掛かりな装置や身体全体を使ったものではなかったため、パフォーマンスとしては、どうしても見劣りしてしまった感は否めない。ARの基盤技術のプレゼンテーションにも同様のことが言えるのだが、パフォーマンスとしての見栄えや派手さも新しいと判断されうる部分であり、結果の評論にすぎないかもしれないが、そういった意味で本アワードでは不利に働いたように感じられた。

ここまで見てきたように、本イベントは、ノミネートされた作品の開発者自身によって、"リアルタイム"にデモが行われるのが醍醐味だ。やはり「リアルタイム」であることが特性であり、ウリでもあるものを、あらかじめ完璧に準備したムービーやスライドで見せてしまうのでは、リアルタイムの真実が伝わらないということだろう。とは言え、普段の環境と異なる特設のイベント会場ということで、会場設備によるハプニングが起こってデモが中断することもしばしばで、登壇者が困惑する場面も見受けられた。リスクの多いイベントは大変だろうが、来年の「Real-Time Live! 」では、万全を期していただきたい。

ゲームエンジンや商用ミドルウェアなどは、ハンズオンイベントやスクールスタイルのプレゼンテーションの機会も多いが、普段は外に出てこないインハウスエンジンの作品の裏側や作業環境をナマで見られる機会というのは滅多にない。今後もリアルタイムグラフィクスのトレンドを掴むために、「SIGGRAPH」の中でも、本イベントには注目を続けていきたい。

info.