Luma AIを使って3D Gaussian splattingを試してみた。
アプリを起動してまず画面に映る対象を確認し、中心になるところをタップして十字(crosshair)をあてる。
アプリの指示通りに対象の周りを一巡してタップする。
アプリが把握した対象の概形を参考に、対象を取り囲むかごのような軌道を画面上に表示するので、そのガイドに沿ってスマホを動かす。
あらかじめ決められたポイントで画像が取得されるとブルッと震えて計測ポイントの色が変わるので順番にポイントをつなぐようにスマホを動かしていく(Scaniverseだと赤の斜線領域を塗り潰していくようなUIになっていた)。
慣れれば卓上の作品のキャプチャは大体5分程度で終わる。
終わったら、Finishボタンを押し、キャプチャしたデータに名前をつけてサーバーにアップロードする。Uploading Captureの後、Preprocessing前処理が終わると、Training NeRFからは、スキャンした画像がぐるぐる再生されながら、Rendering Video、Generating Meshesを経てシーンがreadyになるのを約1時間待つことになる。
サーバーでデータ解析を行っているはずなのに筐体がかなり加熱するのに恐れをなして、制冷・磁吸散熱器をつけて作業を続行した。
1回スキャンするとiPhone 14 Proのバッテリが25%消費され、次のスキャンまで1時間かかりそうなので、openart photogrammetristとしては一発で決めなければならないのがつらいところである。
しかし、Scaniverseよりも失敗が少ないという意味で、確実に高精細な撮像が簡便にできるようになったような印象がある。その一方で、周囲の映り込みを切り取りできる編集機能がないので、なかなか世間様に公開できる画像に仕上げられず。