要約
特に環境情報が低コストの視覚センサーを介してのみ提供できる場合、非構造化された新しい環境での自律的な安全なナビゲーションは、重要な課題をもたらします。
複雑な環境でロボットの安全性を確保するために安全な反応的アプローチが提案されていますが、多くは、ロボットが障害物の位置と幾何学に関する事前知識を持っているという仮定に基づいて理論を基づいています。
このペーパーでは、事前トレーニングなしで不明な環境の連続した1次微分微分距離フィールド(SDF)を構築するリアルタイムのビジョンベースのフレームワークを紹介します。
提案された方法により、確立されたSDFベースのリアクティブコントローラーとの完全な互換性が保証されます。
実用的なセンシング条件下で堅牢なパフォーマンスを実現するために、私たちのアプローチは、手頃な価格のRGB-Dカメラのノイズを明示的に説明し、より滑らかな形状と安定した勾配推定値のためにオンラインでニューラルSDF表現を改良します。
フェッチロボットを使用して、シミュレーションおよび実際の実験で提案された方法を検証します。
要約(オリジナル)
Autonomous safe navigation in unstructured and novel environments poses significant challenges, especially when environment information can only be provided through low-cost vision sensors. Although safe reactive approaches have been proposed to ensure robot safety in complex environments, many base their theory off the assumption that the robot has prior knowledge on obstacle locations and geometries. In this paper, we present a real-time, vision-based framework that constructs continuous, first-order differentiable Signed Distance Fields (SDFs) of unknown environments without any pre-training. Our proposed method ensures full compatibility with established SDF-based reactive controllers. To achieve robust performance under practical sensing conditions, our approach explicitly accounts for noise in affordable RGB-D cameras, refining the neural SDF representation online for smoother geometry and stable gradient estimates. We validate the proposed method in simulation and real-world experiments using a Fetch robot.
arxiv情報
著者 | Satyajeet Das,Yifan Xue,Haoming Li,Nadia Figueroa |
発行日 | 2025-05-04 23:43:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google