要約
散らかった環境での機械的検索(MS)は、自律操作者にとって重要な課題であり、咬合と部分的な観測可能性の下での長期計画と堅牢な状態推定を必要とします。
この作業では、生の感覚入力に基づいて説明可能な優先順位ガイド付きの意思決定を通じてエージェントがMSタスクを効率的に実行できるようにする強化学習フレームワークであるXPG-RLを導入します。
XPG-RLは、タスク駆動型のアクションの優先順位付けメカニズムを、ターゲットの把握、閉塞除去、視点調整などの離散一連のアクションプリミティブから動的に選択する学習したコンテキスト認識スイッチング戦略と統合します。
この戦略では、ポリシーは、アクションプリミティブ間の個別の選択を支配する適応しきい値を出力するように最適化されています。
Perceptionモジュールは、RGB-D入力をセマンティックおよび幾何学的特徴と融合して、下流の意思決定のための構造化されたシーン表現を生成します。
シミュレーションと現実世界の両方の設定での広範な実験は、XPG-RLがタスクの成功率とモーション効率のベースライン方法を一貫して上回ることを示しています。
これらの結果は、堅牢で効率的なロボット操作のための学習可能な意思決定ポリシーとドメインの知識を統合することの利点を強調しています。
要約(オリジナル)
Mechanical search (MS) in cluttered environments remains a significant challenge for autonomous manipulators, requiring long-horizon planning and robust state estimation under occlusions and partial observability. In this work, we introduce XPG-RL, a reinforcement learning framework that enables agents to efficiently perform MS tasks through explainable, priority-guided decision-making based on raw sensory inputs. XPG-RL integrates a task-driven action prioritization mechanism with a learned context-aware switching strategy that dynamically selects from a discrete set of action primitives such as target grasping, occlusion removal, and viewpoint adjustment. Within this strategy, a policy is optimized to output adaptive threshold values that govern the discrete selection among action primitives. The perception module fuses RGB-D inputs with semantic and geometric features to produce a structured scene representation for downstream decision-making. Extensive experiments in both simulation and real-world settings demonstrate that XPG-RL consistently outperforms baseline methods in task success rates and motion efficiency, achieving up to 4.5$\times$ higher efficiency in long-horizon tasks. These results underscore the benefits of integrating domain knowledge with learnable decision-making policies for robust and efficient robotic manipulation.
arxiv情報
著者 | Yiting Zhang,Shichen Li,Elena Shrestha |
発行日 | 2025-04-29 17:37:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google