Incremental Learning of Full-Pose Via-Point Movement Primitives on Riemannian Manifolds

要約

動作プリミティブ (MP) は、デモンストレーションから学習して複雑な動作に組み合わせることができるロボット スキルをコンパクトに表現したものです。
しかし、ロボットに固有の MP の固定セットを装備するだけでは、動的で予測不可能な環境にロボットを展開するには不十分です。
その代わりに、MP の可能性を最大限に引き出すには、適応性のある大規模な MP ライブラリを使用する必要があります。
このペーパーでは、MP ライブラリを段階的に学習、改善、再編成するための 7 つの基本的な操作のセットを提案します。
それらの適用性を示すために、Via-Point Movement Primitives (VMP) で構成されるライブラリの空間操作の明示的な定式化を提供します。
リーマン多様体理論に基づいて構築することにより、私たちのアプローチは、ライブラリ内の位置および方向 VMP のすべてのパラメーターの増分学習を可能にします。
さらに、私たちのアプローチは固定数のパラメーターを保存するため、増分学習の基本原則に準拠しています。
順次提供されるモーション キャプチャ データから VMP ライブラリを段階的に学習するアプローチを評価します。

要約(オリジナル)

Movement primitives (MPs) are compact representations of robot skills that can be learned from demonstrations and combined into complex behaviors. However, merely equipping robots with a fixed set of innate MPs is insufficient to deploy them in dynamic and unpredictable environments. Instead, the full potential of MPs remains to be attained via adaptable, large-scale MP libraries. In this paper, we propose a set of seven fundamental operations to incrementally learn, improve, and re-organize MP libraries. To showcase their applicability, we provide explicit formulations of the spatial operations for libraries composed of Via-Point Movement Primitives (VMPs). By building on Riemannian manifold theory, our approach enables the incremental learning of all parameters of position and orientation VMPs within a library. Moreover, our approach stores a fixed number of parameters, thus complying with the essential principles of incremental learning. We evaluate our approach to incrementally learn a VMP library from motion capture data provided sequentially.

arxiv情報

著者 Tilman Daab,Noémie Jaquier,Christian Dreher,Andre Meixner,Franziska Krebs,Tamim Asfour
発行日 2023-12-13 10:06:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク