Watch Less, Feel More: Sim-to-Real RL for Generalizable Articulated Object Manipulation via Motion Adaptation and Impedance Control

要約

オブジェクト自体は動的な環境を表すため、明確なオブジェクトの操作は、剛性のあるオブジェクト操作と比較して独自の課題を提起します。
この作業では、一般化可能な明確なオブジェクト操作の可変インピーダンス制御とモーション適応のレバレッジ履歴を装備した新しいRLベースのパイプラインを紹介し、ゼロショットSIMからリアルの転送中の滑らかで器用な動きに焦点を当てています。
SIMからリアルのギャップを緩和するために、パイプラインは、Visionデータ機能(RGBD/PointCloud)をポリシー入力として直接レバレバリングせずに、既製のモジュールを介して最初に有用な低次元データを抽出することにより、ビジョンへの依存を減少させます。
さらに、観察履歴を介してオブジェクトの動きとその固有の特性を推測するだけでなく、シミュレーションと現実世界の両方でインピーダンス制御を利用することにより、SIMからリアルのギャップが少なくなります。
さらに、優れたランダム化を備えた適切に設計されたトレーニング設定と、ヒューリスティックモーションプランニングなしでマルチステージ、エンドツーエンドの操作を可能にする専門の報酬システム(タスクアウェアおよびモーションアウェア)を開発します。
私たちの知る限り、私たちのポリシーは、さまざまな目に見えないオブジェクトを使用した広範な実験を介して、現実の世界で84 \%の成功率を最初に報告しました。

要約(オリジナル)

Articulated object manipulation poses a unique challenge compared to rigid object manipulation as the object itself represents a dynamic environment. In this work, we present a novel RL-based pipeline equipped with variable impedance control and motion adaptation leveraging observation history for generalizable articulated object manipulation, focusing on smooth and dexterous motion during zero-shot sim-to-real transfer. To mitigate the sim-to-real gap, our pipeline diminishes reliance on vision by not leveraging the vision data feature (RGBD/pointcloud) directly as policy input but rather extracting useful low-dimensional data first via off-the-shelf modules. Additionally, we experience less sim-to-real gap by inferring object motion and its intrinsic properties via observation history as well as utilizing impedance control both in the simulation and in the real world. Furthermore, we develop a well-designed training setting with great randomization and a specialized reward system (task-aware and motion-aware) that enables multi-staged, end-to-end manipulation without heuristic motion planning. To the best of our knowledge, our policy is the first to report 84\% success rate in the real world via extensive experiments with various unseen objects.

arxiv情報

著者 Tan-Dzung Do,Nandiraju Gireesh,Jilong Wang,He Wang
発行日 2025-02-20 11:18:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO パーマリンク