LEGATO: Cross-Embodiment Imitation Using a Grasping Tool

要約

相互拡大模倣学習により、特定の実施形態について訓練されたポリシーがさまざまなロボットを越えて移動するためのポリシーを可能にし、費用対効果が高く、非常に再利用可能な大規模な模倣学習の可能性を解き放ちます。
このホワイトペーパーでは、さまざまな運動学的形態を横断する視覚運動スキル移動のための相互拡大模倣学習フレームワークであるLegatoを紹介します。
アクションと観測スペースを統合するハンドヘルドグリッパーを導入し、ロボット全体で一貫してタスクを定義できるようにします。
模倣学習を通じてこのグリッパーを使用して、このグリッパーを使用してタスクデモンストレーションに関する視覚運動ポリシーを訓練し、トレーニングの損失を計算するためのモーション不変のスペースに変換を適用します。
ポリシーによって生成されたグリッパーの動きは、多様な実施形態全体に展開するために逆運動学を使用して、高度の高度全身の動きにリターゲットされます。
シミュレーションとレアルロボット実験の評価は、さまざまなロボットにわたって視覚運動スキルの学習と転送におけるフレームワークの有効性を強調しています。
詳細については、プロジェクトページhttps://ut-hcrl.github.io/legatoをご覧ください。

要約(オリジナル)

Cross-embodiment imitation learning enables policies trained on specific embodiments to transfer across different robots, unlocking the potential for large-scale imitation learning that is both cost-effective and highly reusable. This paper presents LEGATO, a cross-embodiment imitation learning framework for visuomotor skill transfer across varied kinematic morphologies. We introduce a handheld gripper that unifies action and observation spaces, allowing tasks to be defined consistently across robots. We train visuomotor policies on task demonstrations using this gripper through imitation learning, applying transformation to a motion-invariant space for computing the training loss. Gripper motions generated by the policies are retargeted into high-degree-of-freedom whole-body motions using inverse kinematics for deployment across diverse embodiments. Our evaluations in simulation and real-robot experiments highlight the framework’s effectiveness in learning and transferring visuomotor skills across various robots. More information can be found on the project page: https://ut-hcrl.github.io/LEGATO.

arxiv情報

著者 Mingyo Seo,H. Andy Park,Shenli Yuan,Yuke Zhu,Luis Sentis
発行日 2025-02-19 01:01:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク