要約
モバイルロボット工学の基本的な課題である視覚ナビゲーションは、多様な環境を処理するための多才なポリシーを要求します。
古典的な方法は、特定のコストを最小限に抑えるために幾何学的なソリューションを活用し、新しいシナリオに適応性を提供しますが、マルチモードルの設計と手作りのルールへの依存によりシステムエラーが発生しやすいです。
学習ベースの方法は、高い計画の成功率を達成しながら、トレーニングデータを超えて目に見えない環境に一般化する際の困難に直面し、多くの場合、広範なトレーニングが必要です。
これらの制限に対処するために、RGBのみの視覚ナビゲーションの学習ベースの方法と古典的なアプローチの強みを組み合わせたハイブリッドアプローチを提案します。
私たちの方法は、最初に、多様なパスRGB観測ペアに関する条件付き拡散モデルをトレーニングします。
推論中、微分可能なシーン固有およびタスクレベルのコストの勾配を統合し、拡散モデルを導き、制約を満たす有効なパスを生成します。
このアプローチは、再訓練の必要性を軽減し、プラグアンドプレイソリューションを提供します。
シミュレーションおよび実世界のシナリオ全体で、屋内および屋外の両方の設定での広範な実験は、アプローチのゼロショット転送能力を示し、ベースライン方法と比較してより高い成功率と衝突が少なくなります。
コードはhttps://github.com/sysu-roboticslab/navidでリリースされます。
要約(オリジナル)
Visual navigation, a fundamental challenge in mobile robotics, demands versatile policies to handle diverse environments. Classical methods leverage geometric solutions to minimize specific costs, offering adaptability to new scenarios but are prone to system errors due to their multi-modular design and reliance on hand-crafted rules. Learning-based methods, while achieving high planning success rates, face difficulties in generalizing to unseen environments beyond the training data and often require extensive training. To address these limitations, we propose a hybrid approach that combines the strengths of learning-based methods and classical approaches for RGB-only visual navigation. Our method first trains a conditional diffusion model on diverse path-RGB observation pairs. During inference, it integrates the gradients of differentiable scene-specific and task-level costs, guiding the diffusion model to generate valid paths that meet the constraints. This approach alleviates the need for retraining, offering a plug-and-play solution. Extensive experiments in both indoor and outdoor settings, across simulated and real-world scenarios, demonstrate zero-shot transfer capability of our approach, achieving higher success rates and fewer collisions compared to baseline methods. Code will be released at https://github.com/SYSU-RoboticsLab/NaviD.
arxiv情報
著者 | Yiming Zeng,Hao Ren,Shuhang Wang,Junlong Huang,Hui Cheng |
発行日 | 2025-04-14 09:06:02+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google