Deep Learning for Koopman-based Dynamic Movement Primitives

要約

少数のデモンストレーションから、ロボットに器用な操作、動的な移動、または全身操作を教えるという課題は、ロボット工学コミュニティ全体から関心を集めている重要な研究分野です。
この研究では、コープマン オペレーターと動的運動プリミティブの理論をデモンストレーションからの学習に結合することにより、新しいアプローチを提案します。
\gls{admd} と名付けられた私たちのアプローチは、解が目的の複雑な動きを再現するように、非線形力学システムを線形潜在空間に投影します。
私たちのアプローチでオートエンコーダーを使用すると、一般化性と拡張性が可能になり、線形システムへの制約により解釈可能性が得られます。
私たちの結果は、LASA 手書きデータセットの拡張動的モード分解に匹敵しますが、文字のごく一部のみをトレーニングしたものです。

要約(オリジナル)

The challenge of teaching robots to perform dexterous manipulation, dynamic locomotion, or whole–body manipulation from a small number of demonstrations is an important research field that has attracted interest from across the robotics community. In this work, we propose a novel approach by joining the theories of Koopman Operators and Dynamic Movement Primitives to Learning from Demonstration. Our approach, named \gls{admd}, projects nonlinear dynamical systems into linear latent spaces such that a solution reproduces the desired complex motion. Use of an autoencoder in our approach enables generalizability and scalability, while the constraint to a linear system attains interpretability. Our results are comparable to the Extended Dynamic Mode Decomposition on the LASA Handwriting dataset but with training on only a small fractions of the letters.

arxiv情報

著者 Tyler Han,Carl Glen Henshaw
発行日 2023-12-06 07:33:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク