SkillMimic: Learning Basketball Interaction Skills from Demonstrations

要約

人間とオブジェクトの相互作用のための従来の強化学習方法(HOI)は、さまざまな相互作用で十分に一般化されない労働集約的で手動で設計されたスキル報酬に依存しています。
スキルマイミックは、スキル固有の報酬の必要性を排除することにより、エージェントがインタラクションスキルを習得する方法を根本的に変える統一されたデータ駆動型フレームワークを紹介します。
私たちの重要な洞察は、統一されたHOI模倣報酬がHOIデータセットからの多様な相互作用パターンの本質を効果的に捉えることができるということです。
これにより、SkillMimicは、複数のインタラクションスキルを習得するだけでなく、スキルの移行を促進する単一のポリシーを学習できます。
評価のために、約35分の多様なバスケットボールスキルを含む2つのバスケットボールデータセットを収集して紹介します。
広範な実験では、SkillMimicがドリブル、レイアップ、撮影の文体的なバリエーションなど、幅広いバスケットボールスキルをマスターすることが示されています。
さらに、これらの学習スキルは、高レベルのコントローラーによって効果的に構成され、連続したスコアリング、スケーラブルで一般化可能な相互作用スキル学習の新しい可能性を開くなどの複雑で長期のタスクを達成できます。
プロジェクトページ:https://ingrid789.github.io/skillmimic/

要約(オリジナル)

Traditional reinforcement learning methods for human-object interaction (HOI) rely on labor-intensive, manually designed skill rewards that do not generalize well across different interactions. We introduce SkillMimic, a unified data-driven framework that fundamentally changes how agents learn interaction skills by eliminating the need for skill-specific rewards. Our key insight is that a unified HOI imitation reward can effectively capture the essence of diverse interaction patterns from HOI datasets. This enables SkillMimic to learn a single policy that not only masters multiple interaction skills but also facilitates skill transitions, with both diversity and generalization improving as the HOI dataset grows. For evaluation, we collect and introduce two basketball datasets containing approximately 35 minutes of diverse basketball skills. Extensive experiments show that SkillMimic successfully masters a wide range of basketball skills including stylistic variations in dribbling, layup, and shooting. Moreover, these learned skills can be effectively composed by a high-level controller to accomplish complex and long-horizon tasks such as consecutive scoring, opening new possibilities for scalable and generalizable interaction skill learning. Project page: https://ingrid789.github.io/SkillMimic/

arxiv情報

著者 Yinhuai Wang,Qihan Zhao,Runyi Yu,Hok Wai Tsui,Ailing Zeng,Jing Lin,Zhengyi Luo,Jiwen Yu,Xiu Li,Qifeng Chen,Jian Zhang,Lei Zhang,Ping Tan
発行日 2025-03-28 08:56:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.GR, cs.LG, cs.RO パーマリンク