Learning Scene-Level Signed Directional Distance Function with Ellipsoidal Priors and Neural Residuals

要約

密集した幾何学的環境表現は、自律的なモバイルロボットナビゲーションと探索にとって重要です。
最近の研究は、ニューラルネットワークを使用して学習した占有、署名距離、または放射線の暗黙の連続表現が、メッシュ、ポイントクラウド、ボクセルに基づいた明示的な離散表現における再構築の忠実度、効率、および差別化の利点を提供することを示しています。
この作業では、署名された方向距離関数(SDDF)と呼ばれる署名された距離の方向定式化を探ります。
署名された距離関数(SDF)とは異なり、ニューラル放射輝度フィールド(NERF)と同様に、SDDFには入力としての位置と表示方向があります。
SDFと同様に、NERFとは異なり、SDDFはビューレイに沿って積分するのではなく、観測された表面に沿って観測された表面に距離を直接提供し、効率的なビュー合成を可能にします。
シーンレベルのSDDFを効率的に学習して予測するために、明示的な楕円形の前処理と暗黙の神経残差を組み合わせた微分可能なハイブリッド表現を開発します。
このアプローチにより、モデルは障害物の境界周辺の遠くの距離の不連続性を効果的に処理しながら、密集した高忠実度予測の能力を維持することができます。
SDDFは、再構成の精度とレンダリング効率の観点から、最先端の神経暗黙のシーンモデルと競合し、ロボット軌道最適化の微分可能なビュー予測を可能にすることを示します。

要約(オリジナル)

Dense geometric environment representations are critical for autonomous mobile robot navigation and exploration. Recent work shows that implicit continuous representations of occupancy, signed distance, or radiance learned using neural networks offer advantages in reconstruction fidelity, efficiency, and differentiability over explicit discrete representations based on meshes, point clouds, and voxels. In this work, we explore a directional formulation of signed distance, called signed directional distance function (SDDF). Unlike signed distance function (SDF) and similar to neural radiance fields (NeRF), SDDF has a position and viewing direction as input. Like SDF and unlike NeRF, SDDF directly provides distance to the observed surface along the direction, rather than integrating along the view ray, allowing efficient view synthesis. To learn and predict scene-level SDDF efficiently, we develop a differentiable hybrid representation that combines explicit ellipsoid priors and implicit neural residuals. This approach allows the model to effectively handle large distance discontinuities around obstacle boundaries while preserving the ability for dense high-fidelity prediction. We show that SDDF is competitive with the state-of-the-art neural implicit scene models in terms of reconstruction accuracy and rendering efficiency, while allowing differentiable view prediction for robot trajectory optimization.

arxiv情報

著者 Zhirui Dai,Hojoon Shin,Yulun Tian,Ki Myung Brian Lee,Nikolay Atanasov
発行日 2025-03-25 21:01:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク