LEGATO: Cross-Embodiment Imitation Using a Grasping Tool

要約

実施形態間の模倣学習により、特定の実施形態でトレーニングされたポリシーを異なるロボット間で転送できるようになり、費用対効果が高く再利用性の高い大規模な模倣学習の可能性が解き放たれます。
この論文では、さまざまな運動学的形態にわたる視覚運動スキルの伝達のための、実施形態を超えた模倣学習フレームワークである LEGATO を紹介します。
アクションスペースと観察スペースを統合し、ロボット全体で一貫してタスクを定義できるハンドヘルドグリッパーを導入します。
このグリッパーを使用して、模倣学習を通じて視覚運動ポリシーをトレーニングし、運動不変変換を適用してトレーニング損失を計算します。
次に、グリッパーの動作は、さまざまな実施形態にわたって展開するために逆運動学を使用して、自由度の高い全身動作に再目標設定される。
シミュレーションと実際のロボット実験での評価では、さまざまなロボット間での視覚運動スキルの学習と伝達におけるフレームワークの有効性が強調されています。
詳細については、プロジェクト ページ https://ut-hcrl.github.io/LEGATO をご覧ください。

要約(オリジナル)

Cross-embodiment imitation learning enables policies trained on specific embodiments to transfer across different robots, unlocking the potential for large-scale imitation learning that is both cost-effective and highly reusable. This paper presents LEGATO, a cross-embodiment imitation learning framework for visuomotor skill transfer across varied kinematic morphologies. We introduce a handheld gripper that unifies action and observation spaces, allowing tasks to be defined consistently across robots. Using this gripper, we train visuomotor policies via imitation learning, applying a motion-invariant transformation to compute the training loss. Gripper motions are then retargeted into high-degree-of-freedom whole-body motions using inverse kinematics for deployment across diverse embodiments. Our evaluations in simulation and real-robot experiments highlight the framework’s effectiveness in learning and transferring visuomotor skills across various robots. More information can be found at the project page: https://ut-hcrl.github.io/LEGATO.

arxiv情報

著者 Mingyo Seo,H. Andy Park,Shenli Yuan,Yuke Zhu,Luis Sentis
発行日 2024-11-06 06:06:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク