要約
複雑な環境でナビゲーションタスクを実行するロボットは、状態推定の不確実性により重大な課題に直面しています。
この不確実性を効果的に管理することは非常に重要ですが、最適なアプローチはタスクの具体的な詳細によって異なります。タスクが異なれば、環境の領域ごとに異なるレベルの精度が必要となります。
たとえば、混雑した空間を移動するロボットは障害物の近くで正確な位置特定を必要とする可能性がありますが、開けた場所では精度の低い状態推定でも効果的に動作できます。
タスクに応じて環境のさまざまな部分で確実性に対するニーズが変化するため、タスク固有の要件に基づいて不確実性管理戦略を適応できるポリシーが必要になります。
この論文では、タスク固有の不確実性要件をナビゲーション ポリシーに直接統合するためのフレームワークを紹介します。
特定のタスクの動作環境のさまざまな領域にわたる状態推定の不確実性の許容レベルを表すタスク固有の不確実性マップ (TSUM) を導入します。
TSUM を使用して、これらの不確実性要件をロボットの意思決定プロセスに組み込むポリシー条件付けフレームワークである、意思決定と実行のための一般化不確実性統合 (GUIDE) を提案します。
TSUM の条件付けポリシーは、タスク固有の不確実性要件を表現する効果的な方法を提供し、ロボットがコンテキスト依存の確実性の値について推論できるようにすることがわかりました。
GUIDE を強化学習フレームワークに統合することで、タスクの完了と不確実性の管理のバランスを取るための明示的な報酬エンジニアリングを必要とせずに、エージェントがナビゲーション ポリシーを学習できるようにする方法を示します。
現実世界のさまざまなナビゲーション タスクで GUIDE を評価したところ、ベースラインと比較してタスク完了率が大幅に向上していることがわかりました。
評価ビデオは https://guided-agents.github.io でご覧いただけます。
要約(オリジナル)
Robots performing navigation tasks in complex environments face significant challenges due to uncertainty in state estimation. Effectively managing this uncertainty is crucial, but the optimal approach varies depending on the specific details of the task: different tasks require varying levels of precision in different regions of the environment. For instance, a robot navigating a crowded space might need precise localization near obstacles but can operate effectively with less precise state estimates in open areas. This varying need for certainty in different parts of the environment, depending on the task, calls for policies that can adapt their uncertainty management strategies based on task-specific requirements. In this paper, we present a framework for integrating task-specific uncertainty requirements directly into navigation policies. We introduce Task-Specific Uncertainty Map (TSUM), which represents acceptable levels of state estimation uncertainty across different regions of the operating environment for a given task. Using TSUM, we propose Generalized Uncertainty Integration for Decision-Making and Execution (GUIDE), a policy conditioning framework that incorporates these uncertainty requirements into the robot’s decision-making process. We find that conditioning policies on TSUMs provides an effective way to express task-specific uncertainty requirements and enables the robot to reason about the context-dependent value of certainty. We show how integrating GUIDE into reinforcement learning frameworks allows the agent to learn navigation policies without the need for explicit reward engineering to balance task completion and uncertainty management. We evaluate GUIDE on a variety of real-world navigation tasks and find that it demonstrates significant improvements in task completion rates compared to baselines. Evaluation videos can be found at https://guided-agents.github.io.
arxiv情報
著者 | Gokul Puthumanaillam,Paulo Padrao,Jose Fuentes,Leonardo Bobadilla,Melkior Ornik |
発行日 | 2024-11-08 15:22:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google