要約
追加の範囲センサーを必要とせずに視覚ベースのナビゲーションの安全性を高めるプラグアンドプレイモジュールであるプラグアンドプレイモジュールであるケア(反発推定による衝突回避)を提案します。
RGB入力のみを使用した最近の基礎モデルは強力なパフォーマンスを示していますが、目に見えないオブジェクトまたはカメラパラメーター(例:視野、ポーズ、または焦点距離)のバリエーションを備えた分散(OOD)環境に一般化できないことがよくあります。
微調整がなければ、これらのモデルは衝突につながる危険な軌跡を生成する可能性があり、費用のかかるデータ収集と再訓練が必要です。
ケアは、ローカル軌道を出力するRGBベースのナビゲーションシステムとシームレスに統合し、単眼深度マップに由来する反発力ベクトルを使用して動的に調整することにより、この制限に対処します。
複数のロボットプラットフォームにまたがる最先端のビジョンベースのナビゲーションモデルと組み合わせることにより、ケアを評価します。
ケアは、目標を達成するパフォーマンスを犠牲にすることなく、一貫して衝突率(最大100%)を減らし、探索タスクで衝突のない移動距離を最大10.7倍改善します。
要約(オリジナル)
We propose CARE (Collision Avoidance via Repulsive Estimation), a plug-and-play module that enhances the safety of vision-based navigation without requiring additional range sensors or fine-tuning of pretrained models. While recent foundation models using only RGB inputs have shown strong performance, they often fail to generalize in out-of-distribution (OOD) environments with unseen objects or variations in camera parameters (e.g., field of view, pose, or focal length). Without fine-tuning, these models may generate unsafe trajectories that lead to collisions, requiring costly data collection and retraining. CARE addresses this limitation by seamlessly integrating with any RGB-based navigation system that outputs local trajectories, dynamically adjusting them using repulsive force vectors derived from monocular depth maps. We evaluate CARE by combining it with state-of-the-art vision-based navigation models across multiple robot platforms. CARE consistently reduces collision rates (up to 100%) without sacrificing goal-reaching performance and improves collision-free travel distance by up to 10.7x in exploration tasks.
arxiv情報
著者 | Joonkyung Kim,Joonyeol Sim,Woojun Kim,Katia Sycara,Changjoo Nam |
発行日 | 2025-06-04 11:02:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google