【後編レポート】3DGSとは?スマホで高精度3Dスキャン&リアルタイム3DCG活用事例まとめ

3DGSの仕組みと業界別ユースケースをご紹介
2025年6月12日、株式会社メンバーズ主催のエンジニア向けLTイベント「第15回 BEMAトーーク!」を開催しました。
当日は、XR領域で活躍するUnityエンジニア・生駒 伸道さんがご登壇し、3DGSの技術的な仕組みと可能性について、わかりやすく解説してくださいました。
今回のレポート(後編)では、生駒さんのセッションから特に印象的だった内容を取り上げ、3DGSの基本構造や従来技術との違い、活用事例を編集部の実体験も交えてお届けします!
※前編はこちら:【前編レポート】OpenFGAとは?Zanzibarベースの認可モデルで実現する次世代アクセス制御の全貌
生駒さんによるセッション:「3DGSの革新性と広がる可能性」

生駒さんはゲーム業界や遊技機業界での豊富な経験を活かし、現在はクロスアプリケーションカンパニーにて、XR領域のUnityエンジニアとして活躍されています。
セッション冒頭、生駒さんは、スマホで撮影した映像が即座にリアルな3DCGになるデモサイトを紹介。
デモサイト:splatter.app/s/ces-y9p
その場で撮影した映像が即座に3D化される、3D Gaussian Splatting(3DGS)のデモンストレーションが披露されました。スマートフォンさえあれば、わずか30秒〜数分で高精度な3Dデータが生成できるという手軽さに、参加者からは「これ本当にスマホで?!」と驚きの声が。
さらに、表示された3Dモデルは“ヌルヌル動く”超高画質の60FPS超え。「点と点のつながりが自然すぎる」「もはやリアルと区別がつかない」といった感想も飛び交い、そのリアルタイム描画の滑らかさに会場は大いに盛り上がりました。
編集部まとめ:3DGSが乗り越えるこれまでの壁
生駒さんの解説では、従来の3D化技術が抱えていた課題と、それをどう3DGSが打破しているかが明快に語られました。
技術 | 主な特徴 | 主な課題 |
メッシュ(1990年代) | 手作業で構築、ゲーム業界の主流 | コスト・時間がかかる |
フォトグラメトリ(2000年代) | 写真から3Dメッシュ生成 | 形が崩れる、反射や透明度表現に弱い |
点群(2010年代) | LiDARによる高密度点描 | 品質に限界、描画が重い |
NeRF(2020年〜) | AIによるリアル再現 | 高精度だが学習・描画が遅く編集不可 |
3DGS(2023年〜) | NeRF+点群の良さを融合 | 高速・高精度・軽量・編集可能 |
編集部としても、「リアルタイム性」と「汎用性」の両立というポイントに、3DGSの可能性を強く感じました。
3DGSの生成プロセス(編集部注釈あり)

生駒さんの説明を編集部で再構成すると、3DGSの生成は以下のような流れになります:
- 多角度撮影:50〜200枚の写真をスマホで撮影
- SfM処理:撮影データからカメラ位置と点群を推定
- ガウス初期化:各点を球状ガウスでモデル化
- 最適化:位置・色・透明度をMLで最適化(数分〜十数分)
- 高品質レンダリング:アルファ合成などで仕上げ
ガウシアンは6つの属性を備え、機械学習によって柔軟に編集できる点が、最大の特長といえるでしょう。
生駒さんが語る3DGSの利便性とコスト面での利点
利用ケース | 従来の手法 | 3DGS |
商品3D化 | 数週間+数十万円 | スマホ30秒+無料 |
室内VR化 | 専用機材・数日 | アプリで5分スキャン+無料 |
表示性能 | カクカク・低画質 | 超高画質・60FPS+リアルタイム描画 |
「これなら個人や中小企業でもすぐ始められる」と、生駒さんはその手軽さとコストメリットを強調されました。
編集部ピックアップ:初心者にも使えるツール
発表中、生駒さんが紹介した誰でも使えるツールをいくつかご紹介します:
- Scaniverse(無料):iPhone/Android/Quest対応
https://scaniverse.com/ - Luma AI(無料):Web/iPhone/Android対応
https://lumalabs.ai/interactive-scenes - Polycam($120/年):画像生成は有料、閲覧は無料
https://poly.cam/tools/gaussian-splatting
AR時代の到来と3DGSの親和性
ARグラス市場が本格化する2025年を見据え、生駒さんは「3DGSはAR体験の設計基盤になる」と語りました。
実際、軽量かつ高精度、そして高速に扱える3DGSは、これからのUI/UXを根底から支える存在になりそうです。
業界別のユースケース紹介(生駒さんによる解説)
- 製造業:設備を3DGSでスキャン → 遠隔AR支援
- 不動産:室内を3D化 → 自宅でAR内見・家具配置シミュレーション
- 教育・研修:危険作業の現場を仮想体験 → 安全に学べる
進化する3DGS技術の今とこれから
登壇では、3DGSを起点とした新技術の動向も紹介されました:
- EDGS:さらなる高速・高精度化
- 2DGS:輪郭表現に特化
- 4DGS:動画生成対応
- InstantSplat:1枚画像から3D生成
- DiffSplat:テキストプロンプトから3D生成
これらの技術は、生成AIやXR、Web技術の交差点に位置し、急成長中の分野です。
生駒さんから見た「これから必要なスキル」
最後に、生駒さんはこの領域で今後必要になるスキルについても語りました:
- 線形代数やGPUなどの3Dグラフィックスの基礎
- PyTorchやCUDAを使った機械学習の知識
- Unity / Unreal EngineによるXR/3D開発
- WebXR / WebGPUを活用したWeb上での高精度レンダリング
会の中での質疑応答(FAQ):「3DGSの動的制御は可能ですか?」
質疑応答では、「3DGSの一部を動的に制御できるか?」という質問に対して、生駒さんは以下のように回答されました:
- オブジェクト単位で個別スキャンして合成表示することは可能
- 既存のメッシュデータとの併用も可能
- GPUベースの描画パイプラインとの統合もできる
編集部としても、オブジェクト単位で分離・編集が可能で、他の3Dデータと組み合わせて再利用できる柔軟性も、3DGSならではの大きな特長だと感じます。
▼生駒さん執筆の記事はこちら▼
編集部まとめ:3DGSは、今すぐ触れてみたくなる技術だった
今回のセッションでは、3DGSという最先端技術が持つ「手軽さ」と「リアルさ」、そして「圧倒的な可能性」を肌で感じることができました。特に印象的だったのは、専門機材がなくても、スマホひとつで簡単に3D化ができるという手軽さです。
編集部でも紹介された「Scaniverse」を実際に試してみましたが、アプリを起動してわずか30秒ほどで、本当にリアルな3Dモデルが生成された瞬間は感動的でした。技術の進化を“自分ごと”として感じられる体験こそ、こうしたイベントの醍醐味だと思います。
特に、生駒さんが紹介されたツールや実例は、「自分にもできるかもしれない」と思えるような後押しを与えてくれる内容ばかりでした。
BEMAでは、こうした“ワクワクする未来”を現実の技術で形にしていくための学びと交流の場を、これからも提供していきます。
このレポートが、少しでも皆さんの“次の一歩”のきっかけになれば幸いです!
この記事を書いた人

Advent Calendar!
Advent Calendar 2024
What is BEMA!?
Be Engineer, More Agile