Niantic Spatial社は4月8日(水)、従来から提供してきた「Scaniverse」を刷新し、ビジネス向け空間インテリジェンスサービスの入口となるプラットフォームとして新たに提供を開始した。併せて、事前の空間スキャンなしで機能するグローバル規模の視覚測位システム「VPS 2.0」と、各種プラットフォームに対応する開発キット「NSDK 4.0」もリリースした。

空間キャプチャプラットフォーム「Scaniverse」

▲Scaniverseモバイルアプリの3ステップ。ARのガイドに従い対象物を最低15秒間スキャンし(左)、スキャンデータから生成された3Dモデルを俯瞰し、Splat、VPS Map、Meshの各アセット状況や履歴を確認(中央)、マッピングされた空間にメッシュ状のワイヤーフレームが重なり、端末の正確な位置情報が特定された状態(右)

Scaniverseはスマートフォンや市販の360°カメラを用いて3D空間をキャプチャするモバイルおよびWebプラットフォーム。一部屋の空間から数千平方メートルの大規模なエリアまで対応し、高精度のメッシュや3DGS(3D Gaussian Splatting)を生成できる。クラウドを通じた共同編集機能により、複数ユーザーが別々のデバイスからスキャンデータを追加し、単一の統合モデルを構築可能。生成されたアセットは標準的な3DフォーマットのFBXPLY、およびNianticがオープンソース(MITライセンス)で推進する3DGS用フォーマットSPZ形式でエクスポートでき、ロボティクスシミュレータへの組み込みも想定されている。

▲Webブラウザ上で動作するScaniverseの管理ダッシュボード。現地の風景画像の確認やアセット生成指示、およびスキャンデータの履歴・ステータス管理をクラウド経由で行える
▲Webブラウザ上のScaniverseによる高精細な3Dモデル表示。右側パネルには、プロジェクトに貢献したスキャン回数や面積などのメタデータの確認が行える

■Capture(Niantic Spatial)
https://www.nianticspatial.com/products/capture

■Scaniverse - 3D Scanner(App Store iPhone)
https://apps.apple.com/jp/app/scaniverse-3d-scanner/id1541433223

■Webブラウザ版Scaniverse
https://scaniverse.nianticspatial.com/

事前スキャン不要のグローバル測位「VPS 2.0」

▲従来のGPS(全地球測位システム)とVPS(視覚測位システム)の仕組みと精度の比較図。GPSは人工衛星からの信号を用いるため、ビル群などの都市環境では精度が低下し、誤差が数十メートルに及ぶリスクがある。それに対してVPSは、スマートフォンのカメラなどの視覚情報と3Dマップを直接照合することでGPSの弱点を克服し、マッピング済みのエリアでは約15cmという極めて高い精度で位置と向きを算出できる

「VPS 2.0」は、カメラの視覚情報と高度なコンピュータビジョンを用いてリアルタイムに正確な位置と向きを割り出すVPS(Visual Positioning System:視覚測位システム)の最新版。従来は事前にロケーションをスキャンしておく必要があったが、本バージョンからその制限が撤廃された。Scaniverseでマッピング済みの場所ではセンチメートル精度の6DoF(6 Degrees of Freedom、位置と姿勢を含む6自由度)ローカリゼーションを提供し、未スキャンの場所でも視覚的な文脈と複数のデータソースを活用してGPSのズレや信号消失を補正し、3DoFによる安定した測位と方位の提供を行う。

▲Niantic Spatialのプラットフォームにおける、データ収集からアプリへの組み込みまでの全体的なデータのながれ。複数のスキャンデータのキャプチャから始まり、それらをクラウドへアップロード。その後、マッピングパイプラインによる生成処理を経て、VPS Map、メッシュ、3DGSという3種類のアセットが出力される。それらの空間アセットは開発キット「NSDK 4.0」を通じてデプロイされる

■Localize(Niantic Spatial)
https://www.nianticspatial.com/products/localize

複数環境をサポートする開発キット「NSDK 4.0」

開発者がScaniverseやVPS 2.0と統合された空間アプリケーションを構築するための開発キット「NSDK(Niantic Spatial Development Kit) 4.0」も一般提供開始。本アップデートでは、UnitySwift、ネイティブAndroidのサポートが拡張される。さらに、ロボットソフトウェア開発の世界的な標準フレームワークであるROS 2(Robot Operating System 2)の早期サポートもリクエストベースで開始される。これにより、モバイルアプリ開発者からロボット工学のエンジニアまで、単一のプログラミング環境に縛られることなく既存のワークフローを活用できる。

■Niantic Spatial SDK(Niantic Spatial)
https://www.nianticspatial.com/docs





■Mapping the World For Machines with Scaniverse(公式ブログ)
https://www.nianticspatial.com/blog/scaniverse

CGWORLD関連情報

●「OpenUSD v26.03」リリース 3DGSのネイティブサポート、テスト用レンダラ同梱によりusdview内で表示確認可能

AOUSD(Alliance for OpenUSD)が3Dシーン記述フレームワークOpenUSDの最新バージョン「OpenUSD v26.03」をリリース。本アップデートでは3D Gaussian Splats(3DGS)のネイティブサポートや、Webブラウザでの実行を可能にするWebAssemblyへの対応が追加。また、データ処理エンジンの改良や描画性能の向上などの機能強化も施されている。
https://cgworld.jp/flashnews/01-202604-OpenUSDv26.03.html

●3Dシーン補完生成技術「Seen2Scene」発表! 不完全な実世界の3Dスキャンデータから現実的な3Dシーンを補完・生成

ミュンヘン工科大学とバージニア大学の研究チームが不完全な実世界の3Dスキャンデータから現実的な3Dシーンを補完・生成する技術「Seen2Scene」を発表。現実の観測データから直接学習する新しいアプローチを採用し、複雑で雑然とした環境でも高精度なシーンの再構築を実現する。
https://cgworld.jp/flashnews/01-202604-Seen2Scene.html

●自己回帰的3DGSシーン生成技術「GaussianGPT」発表! GPT形式のトランスフォーマーを用いて3D空間の構造と外観を段階的に生成

ミュンヘン工科大学の研究チームが、次トークン予測を用いた自己回帰型の3DGS(3D Gaussian Splatting)生成モデル「GaussianGPT」を発表。LLM(大規模言語モデル)と同様の学習手法を3D空間の構築に応用することで、シーンの欠損補完や自由度の高い拡張を可能にする。現在は学術的な研究段階となっており、ソースコードは近日公開予定。
https://cgworld.jp/flashnews/01-202604-GaussianGPT.html