Evaluating geometric accuracy of NeRF reconstructions compared to SLAM method

要約

Neural Radiance Field (NeRF) の実装が高速化、効率化、正確化するにつれて、現実世界のマッピング タスクへの適用がより容易になります。
従来、3D マッピング、つまりシーンの再構築は高価な LiDAR センシングに依存していました。
写真測量では画像ベースの 3D 再構成を実行できますが、計算コストが高く、複雑なジオメトリとフォトリアリズムを復元するには非常に高密度の画像表現が必要です。
NeRF は、まばらな画像とポーズ データでニューラル ネットワークをトレーニングすることによって 3D シーンの再構成を実行し、少ない入力データで写真測量よりも優れた結果を達成します。
この論文では、垂直 PVC シリンダーの直径を推定する目的で 2 つの NeRF シーン再構成の評価を示します。
これらの 1 つは一般的な iPhone データでトレーニングされ、もう 1 つはロボットから供給された画像とポーズでトレーニングされます。
このニューラル ジオメトリは、シーン ノイズとメトリック精度の点で最先端の LIDAR 慣性 SLAM と比較されます。

要約(オリジナル)

As Neural Radiance Field (NeRF) implementations become faster, more efficient and accurate, their applicability to real world mapping tasks becomes more accessible. Traditionally, 3D mapping, or scene reconstruction, has relied on expensive LiDAR sensing. Photogrammetry can perform image-based 3D reconstruction but is computationally expensive and requires extremely dense image representation to recover complex geometry and photorealism. NeRFs perform 3D scene reconstruction by training a neural network on sparse image and pose data, achieving superior results to photogrammetry with less input data. This paper presents an evaluation of two NeRF scene reconstructions for the purpose of estimating the diameter of a vertical PVC cylinder. One of these are trained on commodity iPhone data and the other is trained on robot-sourced imagery and poses. This neural-geometry is compared to state-of-the-art lidar-inertial SLAM in terms of scene noise and metric-accuracy.

arxiv情報

著者 Adam Korycki,Colleen Josephson,Steve McGuire
発行日 2024-07-25 20:40:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク