BiRP: Learning Robot Generalized Bimanual Coordination using Relative Parameterization Method on Human Demonstration

要約

人間の両手操作は、2 つの単一の腕の単純な組み合わせよりも複雑なタスクを実行できます。これは、腕間の時空間的な調整によるものと考えられます。
しかし、両手調整の説明はロボット工学においてまだ未解決のトピックです。
このため、ロボット工学に適用することはおろか、説明可能な調整パラダイムを与えることも困難になります。
この研究では、人間の日常活動における主な両手作業を、リーダーとフォロワーと相乗的調整という 2 つのタイプに分類します。
次に、人間のデモンストレーションからこれらのタイプの調整を学習するための相対パラメータ化方法を提案します。
これは、動作全体にわたる調整の重要性の変化を確率によって説明するために、両手操作のデモンストレーションから調整を混合ガウス モデルとして表します。
学習された調整表現は、時空間調整を確保しながら、新しいタスク パラメーターに一般化できます。
合成モーションと人間のデモンストレーション データを使用してこの方法を実証し、それをヒューマノイド ロボットに展開して一般化された両手調整モーションを実行します。
私たちは、この使いやすい両手操作によるデモンストレーションからの学習 (LfD) 手法は、ロボットの大規模操作モデルのトレーニング用のデータ拡張プラグインとして使用できる可能性があると考えています。
対応するコードは https://github.com/Skylark0924/Rofunc でオープンソース化されています。

要約(オリジナル)

Human bimanual manipulation can perform more complex tasks than a simple combination of two single arms, which is credited to the spatio-temporal coordination between the arms. However, the description of bimanual coordination is still an open topic in robotics. This makes it difficult to give an explainable coordination paradigm, let alone applied to robotics. In this work, we divide the main bimanual tasks in human daily activities into two types: leader-follower and synergistic coordination. Then we propose a relative parameterization method to learn these types of coordination from human demonstration. It represents coordination as Gaussian mixture models from bimanual demonstration to describe the change in the importance of coordination throughout the motions by probability. The learned coordinated representation can be generalized to new task parameters while ensuring spatio-temporal coordination. We demonstrate the method using synthetic motions and human demonstration data and deploy it to a humanoid robot to perform a generalized bimanual coordination motion. We believe that this easy-to-use bimanual learning from demonstration (LfD) method has the potential to be used as a data augmentation plugin for robot large manipulation model training. The corresponding codes are open-sourced in https://github.com/Skylark0924/Rofunc.

arxiv情報

著者 Junjia Liu,Hengyi Sim,Chenzui Li,Fei Chen
発行日 2023-07-12 05:58:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク