要約
構造化されていない環境でのロボットの使用の増加は、フィールドロボットがタスクを成功させるための効果的な知覚とナビゲーション戦略の開発を必要とします。
特に、そのようなロボットが環境内のどこに移動できるかを理解することが重要です。トラバース性推定として知られるタスクです。
ただし、移動性推定に対する既存の幾何学的アプローチは、移動性の微妙な表現をキャプチャできない場合がありますが、ビジョンベースのアプローチは通常、多数の画像を手動で注釈するか、ロボットエクスペリエンスを必要とするかのいずれかを伴います。
さらに、既存の方法は、展開中に通常学習しないため、ドメインのシフトに対処するのに苦労する可能性があります。
この目的のために、私たちは、必要な注釈のために人間を促すトラバース性推定のための人間のループ(HIL)方法を提案します。
私たちの方法では、基礎モデルを使用して、新しい注釈の迅速な学習を可能にし、少数の迅速なヒルアノテーションで訓練された場合でも正確な予測を提供します。
シミュレーションおよび実際のデータでの方法を広範囲に検証し、最先端の移動性予測パフォーマンスを提供できることを実証します。
要約(オリジナル)
The increasing use of robots in unstructured environments necessitates the development of effective perception and navigation strategies to enable field robots to successfully perform their tasks. In particular, it is key for such robots to understand where in their environment they can and cannot travel — a task known as traversability estimation. However, existing geometric approaches to traversability estimation may fail to capture nuanced representations of traversability, whereas vision-based approaches typically either involve manually annotating a large number of images or require robot experience. In addition, existing methods can struggle to address domain shifts as they typically do not learn during deployment. To this end, we propose a human-in-the-loop (HiL) method for traversability estimation that prompts a human for annotations as-needed. Our method uses a foundation model to enable rapid learning on new annotations and to provide accurate predictions even when trained on a small number of quickly-provided HiL annotations. We extensively validate our method in simulation and on real-world data, and demonstrate that it can provide state-of-the-art traversability prediction performance.
arxiv情報
著者 | Andre Schreiber,Katherine Driggs-Campbell |
発行日 | 2025-04-28 14:46:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google