要約
ロボット局所操作タスクには、多くの場合、環境との接触が豊富な相互作用が含まれ、接触力とロボットの位置の共同モデリングが必要です。
ただし、最近の視覚運動ポリシーは、多くの場合、学習ポジションまたはフォースコントロールのみに焦点を当てており、共同学習を見下ろしています。
この作業では、力センサーに依存せずに学習した力と位置の制御を共同でモデル化する脚のロボットの最初の統一ポリシーを提案します。
外部外障害の力とともに位置と力のコマンドの多様な組み合わせをシミュレートすることにより、補強学習を使用して、歴史的ロボット状態からの力を推定し、位置と速度の調整を通じてそれらを補償するポリシーを学習します。
このポリシーにより、位置追跡、力の適用、力追跡、準拠の相互作用など、さまざまな力と位置の入力の下で幅広い操作行動が可能になります。
さらに、学習したポリシーは、強制推定モジュールを介して重要な連絡先情報を組み込むことにより、軌道ベースの模倣学習パイプラインを強化し、ポジションコントロールポリシーと比較して4つの困難な接触リッチ操作タスクで約39.5%高い成功率を達成することを実証します。
四角形マニピュレーターとヒューマノイドロボットの両方に関する広範な実験は、多様なシナリオ全体で提案されたポリシーの汎用性と堅牢性を検証します。
要約(オリジナル)
Robotic loco-manipulation tasks often involve contact-rich interactions with the environment, requiring the joint modeling of contact force and robot position. However, recent visuomotor policies often focus solely on learning position or force control, overlooking their co-learning. In this work, we propose the first unified policy for legged robots that jointly models force and position control learned without reliance on force sensors. By simulating diverse combinations of position and force commands alongside external disturbance forces, we use reinforcement learning to learn a policy that estimates forces from historical robot states and compensates for them through position and velocity adjustments. This policy enables a wide range of manipulation behaviors under varying force and position inputs, including position tracking, force application, force tracking, and compliant interactions. Furthermore, we demonstrate that the learned policy enhances trajectory-based imitation learning pipelines by incorporating essential contact information through its force estimation module, achieving approximately 39.5% higher success rates across four challenging contact-rich manipulation tasks compared to position-control policies. Extensive experiments on both a quadrupedal manipulator and a humanoid robot validate the versatility and robustness of the proposed policy across diverse scenarios.
arxiv情報
著者 | Peiyuan Zhi,Peiyang Li,Jianqin Yin,Baoxiong Jia,Siyuan Huang |
発行日 | 2025-05-27 07:44:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google