GUIDEd Agents: Enhancing Navigation Policies through Task-Specific Uncertainty Abstraction in Localization-Limited Environments

要約

複雑な環境下でナビゲーションタスクを実行する自律走行車は、状態推定の不確実性のために大きな課題に直面している。ステルス作戦やリソースに制約のある環境など、多くのシナリオにおいて、高精度の定位へのアクセスには大きなコストがかかり、ロボットは主に精度の低い状態推定に頼らざるを得ない。つまり、混雑した空間をナビゲートするロボットは、障害物の近くでは正確な定位が必要かもしれないが、それ以外の場所では精度が低くても効果的に動作することができる。本論文では、タスク固有の不確実性要求をナビゲーションポリシーに直接統合する計画手法を提示する。タスク固有の不確実性マップ(Task-Specific Uncertainty Maps: TSUM)を導入し、異なる領域にわたる状態推定の不確実性の許容レベルを抽象化する。TSUMは、ドメインに適応したエンコーダを介して生成される共有表現空間を使用して、タスク要求と環境特徴を整合させる。TSUMを用いて、我々は、ロボットの意思決定にこれらの不確実性要件を組み込む政策調整フレームワークである、意思決定と実行のための一般化不確実性統合(Generalized Uncertainty Integration for Decision-Making and Execution:GUIDE)を提案する。我々は、TSUMがタスク固有の不確実性要件を抽象化する効果的な方法を提供し、TSUMにポリシーを条件付けることで、ロボットが文脈に依存する確実性の値を推論し、それに応じて行動を適応させることを可能にすることを見出した。また、GUIDEを強化学習フレームワークに統合することで、明示的な報酬工学を用いることなく、タスク完了と不確実性管理のバランスを効果的にとるナビゲーションポリシーをエージェントが学習できることを示す。実世界の様々なロボットナビゲーションタスクでGUIDEを評価し、タスク固有の不確実性を明示的に考慮しないベースライン手法と比較して、タスク完了率が大幅に改善することを見出した。

要約(オリジナル)

Autonomous vehicles performing navigation tasks in complex environments face significant challenges due to uncertainty in state estimation. In many scenarios, such as stealth operations or resource-constrained settings, accessing high-precision localization comes at a significant cost, forcing robots to rely primarily on less precise state estimates. Our key observation is that different tasks require varying levels of precision in different regions: a robot navigating a crowded space might need precise localization near obstacles but can operate effectively with less precision elsewhere. In this paper, we present a planning method for integrating task-specific uncertainty requirements directly into navigation policies. We introduce Task-Specific Uncertainty Maps (TSUMs), which abstract the acceptable levels of state estimation uncertainty across different regions. TSUMs align task requirements and environmental features using a shared representation space, generated via a domain-adapted encoder. Using TSUMs, we propose Generalized Uncertainty Integration for Decision-Making and Execution (GUIDE), a policy conditioning framework that incorporates these uncertainty requirements into robot decision-making. We find that TSUMs provide an effective way to abstract task-specific uncertainty requirements, and conditioning policies on TSUMs enables the robot to reason about the context-dependent value of certainty and adapt its behavior accordingly. We show how integrating GUIDE into reinforcement learning frameworks allows the agent to learn navigation policies that effectively balance task completion and uncertainty management without explicit reward engineering. We evaluate GUIDE on various real-world robotic navigation tasks and find that it demonstrates significant improvement in task completion rates compared to baseline methods that do not explicitly consider task-specific uncertainty.

arxiv情報

著者 Gokul Puthumanaillam,Paulo Padrao,Jose Fuentes,Leonardo Bobadilla,Melkior Ornik
発行日 2025-02-03 04:57:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, cs.RO, cs.SY, eess.SY パーマリンク