CooHOI: Learning Cooperative Human-Object Interaction with Manipulated Object Dynamics

要約

近年、大規模なモーション キャプチャ データの利用と強化学習手法の適用により、ヒューマノイド制御が大幅に進歩しました。
ただし、大きくて重い家具の移動など、現実世界のタスクの多くは、複数のキャラクターの協力が必要です。
マルチキャラクターのコラボレーションに関するデータの不足と、マルチエージェントの学習に伴う効率の課題を考慮すると、これらのタスクは、シングルエージェントのシナリオ向けに設計されたトレーニング パラダイムを使用して直接対処することはできません。
この論文では、個人のスキルの習得とその後の伝達という 2 段階の学習パラダイムを通じて転送されるマルチキャラクター オブジェクトに対処する新しいフレームワークである、Cooperative Human-Object Interaction (CooHOI) を紹介します。
最初は、単一のエージェントが Adversarial Motion Priors (AMP) フレームワークを使用してタスクの実行方法を学習します。
これに続いて、エージェントは、Multi Agent Proximal Policy Optimization (MAPPO) を使用した並列トレーニング中に、操作対象オブジェクトの共有ダイナミクスを考慮することで、他のユーザーと協力する方法を学習します。
1 つのエージェントがオブジェクトと対話し、その結果特定のオブジェクトのダイナミクスが変化すると、他のエージェントは適切に応答することを学習し、それによってチームメイト間の暗黙的なコミュニケーションと調整が実現します。
マルチキャラクター HOI の追跡ベースの方法に依存していた以前のアプローチとは異なり、CooHOI は本質的に効率的であり、マルチキャラクター インタラクションのモーション キャプチャ データに依存せず、より多くの参加者と幅広いオブジェクト タイプを含めるようにシームレスに拡張できます。

要約(オリジナル)

Recent years have seen significant advancements in humanoid control, largely due to the availability of large-scale motion capture data and the application of reinforcement learning methodologies. However, many real-world tasks, such as moving large and heavy furniture, require multi-character collaboration. Given the scarcity of data on multi-character collaboration and the efficiency challenges associated with multi-agent learning, these tasks cannot be straightforwardly addressed using training paradigms designed for single-agent scenarios. In this paper, we introduce Cooperative Human-Object Interaction (CooHOI), a novel framework that addresses multi-character objects transporting through a two-phase learning paradigm: individual skill acquisition and subsequent transfer. Initially, a single agent learns to perform tasks using the Adversarial Motion Priors (AMP) framework. Following this, the agent learns to collaborate with others by considering the shared dynamics of the manipulated object during parallel training using Multi Agent Proximal Policy Optimization (MAPPO). When one agent interacts with the object, resulting in specific object dynamics changes, the other agents learn to respond appropriately, thereby achieving implicit communication and coordination between teammates. Unlike previous approaches that relied on tracking-based methods for multi-character HOI, CooHOI is inherently efficient, does not depend on motion capture data of multi-character interactions, and can be seamlessly extended to include more participants and a wide range of object types

arxiv情報

著者 Jiawei Gao,Ziqin Wang,Zeqi Xiao,Jingbo Wang,Tai Wang,Jinkun Cao,Xiaolin Hu,Si Liu,Jifeng Dai,Jiangmiao Pang
発行日 2024-06-20 17:59:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク