要約
Zero-Shot Object Goal Navigation (ZS-OGN) を使用すると、オブジェクト固有のトレーニングを行わなくても、ロボットまたはエージェントが目に見えないカテゴリのオブジェクトに向かってナビゲートできるようになります。
従来のアプローチでは、ナビゲーション ガイダンスにカテゴリカルな意味情報を活用することがよくありますが、オブジェクトが部分的にのみ観察されている場合や、環境の詳細な機能表現が欠如している場合には困難を伴います。
上記の 2 つの問題を解決するために、オブジェクトのパーツとアフォーダンス属性をナビゲーション ガイダンスとして統合する新しい方法である \textit{Geometric-part and Affordance Maps} (GAMap) を提案します。
私たちの方法には、さまざまなスケールでオブジェクトの幾何学的部分とアフォーダンス属性をキャプチャするためのマルチスケール スコアリング アプローチが含まれています。
HM3D および Gibson ベンチマーク データセットで行われた包括的な実験では、成功率とパス長によって重み付けされた成功の向上が実証されており、追加のオブジェクト固有のトレーニングやトレーニングを必要とせずに、ロボットの自律性と多用途性を強化するための幾何学的パーツとアフォーダンスに基づくナビゲーション アプローチの有効性が強調されています。
目に見えないオブジェクトやロボットの移動のセマンティクスを微調整します。
要約(オリジナル)
Zero-Shot Object Goal Navigation (ZS-OGN) enables robots or agents to navigate toward objects of unseen categories without object-specific training. Traditional approaches often leverage categorical semantic information for navigation guidance, which struggles when only objects are partially observed or detailed and functional representations of the environment are lacking. To resolve the above two issues, we propose \textit{Geometric-part and Affordance Maps} (GAMap), a novel method that integrates object parts and affordance attributes as navigation guidance. Our method includes a multi-scale scoring approach to capture geometric-part and affordance attributes of objects at different scales. Comprehensive experiments conducted on HM3D and Gibson benchmark datasets demonstrate improvements in Success Rate and Success weighted by Path Length, underscoring the efficacy of our geometric-part and affordance-guided navigation approach in enhancing robot autonomy and versatility, without any additional object-specific training or fine-tuning with the semantics of unseen objects and/or the locomotions of the robot.
arxiv情報
著者 | Shuaihang Yuan,Hao Huang,Yu Hao,Congcong Wen,Anthony Tzes,Yi Fang |
発行日 | 2024-10-31 14:31:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google