要約
ダイナミック モーション プリミティブ ベース (DMP) 法は、デモンストレーションから学習する効果的な方法です。
ただし、現在の DMP ベースのメソッドのほとんどは、1 つのモジュールで 1 つのタスクを学習することに重点を置いています。
ただし、深層学習ベースのフレームワークの中には、同時にマルチタスクを学習できるものもあります。
ただし、これらの方法では大量のトレーニング データが必要であり、学習された動作をトレーニングされていない状態に一般化することは制限されています。
このペーパーでは、従来の DMP ベースの方法と条件付き変分オート エンコーダー (CVAE) の利点を組み合わせたフレームワークを提案します。
エンコーダとデコーダはダイナミック システムとディープ ニューラル ネットワークで構成されています。
ディープ ニューラル ネットワークは、タスク ID に基づいて条件付けされたトルクを生成するために使用されます。
次に、このトルクを使用して、最終状態に基づいて動的システム内で目的の軌道を作成します。
このようにして、生成されたトラクトリーは新しいゴール位置に調整できます。
また、経由点制約を保証するための微調整方法も提案します。
私たちのモデルは手書きの数字のデータセットでトレーニングされており、ロボットのタスク (直接手を伸ばしたり押したり) を解決するために使用できます。
提案されたモデルはシミュレーション環境で検証されます。
結果は、手書き番号データセットでトレーニングした後、タスクのプッシュおよび到達において 100% の成功率を達成したことを示しています。
要約(オリジナル)
The dynamic motion primitive-based (DMP) method is an effective method of learning from demonstrations. However, most of the current DMP-based methods focus on learning one task with one module. Although, some deep learning-based frameworks can learn to multi-task at the same time. However, those methods require a large number of training data and have limited generalization of the learned behavior to the untrained state. In this paper, we propose a framework that combines the advantages of the traditional DMP-based method and conditional variational auto-encoder (CVAE). The encoder and decoder are made of a dynamic system and deep neural network. Deep neural networks are used to generate torque conditioned on the task ID. Then, this torque is used to create the desired trajectory in the dynamic system based on the final state. In this way, the generated tractory can adjust to the new goal position. We also propose a finetune method to guarantee the via-point constraint. Our model is trained on the handwriting number dataset and can be used to solve robotic tasks — reaching and pushing directly. The proposed model is validated in the simulation environment. The results show that after training on the handwriting number dataset, it achieves a 100\% success rate on pushing and reaching tasks.
arxiv情報
著者 | Binzhao Xu,Muhayy Ud Din,Irfan Hussain |
発行日 | 2024-05-24 06:50:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google