Deep Segmented DMP Networks for Learning Discontinuous Motions

要約

不連続運動とは、複数の連続的な運動から構成され、その間に方向や速度が急激に変化する運動のことで、状態を認識するロボットタスクで見られる。このようなロボットタスクは、画像などのセンサ情報を用いて調整されることが多い。近年、ロボティクスに適した運動動作を生成する手法であるDMP(Dynamic Movement Primitives)は、センサ情報とDMPパラメータを関連付けることができるように、ディープラーニングを用いた改良がいくつか行われている。ディープラーニングフレームワークの実装により、DMPが入力に直接関連付けることができない点は改善されたものの、再構成に多数の基底関数を必要とする複雑な動きに対するDMPパラメータの学習が困難であることがわかった。本論文では、複数のDMPパラメータを予測するネットワークアーキテクチャ、2段デコーダネットワーク、分割数予測器の組み合わせを利用することで、可変長の分割モーションを生成するDeep Segmented DMP Network (DSDNet)と呼ばれる新しいディープラーニングネットワークアーキテクチャを提案する。提案手法を人工データ(物体切断とピックアンドプレース)と実データ(物体切断)の両方で評価した結果、提案手法は不連続な長ホライズンモーションを生成する従来の手法と比較して、高い汎化能力、課題達成度、データ効率を達成することができた。

要約(オリジナル)

Discontinuous motion which is a motion composed of multiple continuous motions with sudden change in direction or velocity in between, can be seen in state-aware robotic tasks. Such robotic tasks are often coordinated with sensor information such as image. In recent years, Dynamic Movement Primitives (DMP) which is a method for generating motor behaviors suitable for robotics has garnered several deep learning based improvements to allow associations between sensor information and DMP parameters. While the implementation of deep learning framework does improve upon DMP’s inability to directly associate to an input, we found that it has difficulty learning DMP parameters for complex motion which requires large number of basis functions to reconstruct. In this paper we propose a novel deep learning network architecture called Deep Segmented DMP Network (DSDNet) which generates variable-length segmented motion by utilizing the combination of multiple DMP parameters predicting network architecture, double-stage decoder network, and number of segments predictor. The proposed method is evaluated on both artificial data (object cutting & pick-and-place) and real data (object cutting) where our proposed method could achieve high generalization capability, task-achievement, and data-efficiency compared to previous method on generating discontinuous long-horizon motions.

arxiv情報

著者 Edgar Anarossi,Hirotaka Tahara,Naoto Komeno,Takamitsu Matsubara
発行日 2023-09-01 08:08:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO パーマリンク