要約
動きプリミティブは、限られたデモンストレーションのセットから開始してロボットの動きを再現する、トレーニング可能なパラメトリック モデルです。
以前の研究では、動きの時間的変調(動きをより速くまたはより遅く再現する)、ブレンド(2 つの動きを 1 つにマージする)、経由点条件付け(特定の経由に一致するように動きを制約する)を可能にすることにより、高いサンプル効率と一般化能力を示す単純な線形モデルを提案しました。
-ポイント)およびコンテキスト条件付け(オブジェクトの位置などの観察された変数に基づいた動きの生成)。
これまでの研究では、ニューラル ネットワーク ベースのモーター プリミティブ モデルが提案されており、いくつかの形式の入力調整または時間変調表現を使用してタスクを実行する能力が実証されています。
しかし、これまでのすべての操作を実行できる単一の統合されたディープ モーター プリミティブのモデルは提案されておらず、ニューラル モーター プリミティブの潜在的な用途が制限されています。
この論文では、上記のすべての操作をエンコードし、より健全なコンテキストの調整とブレンディングを可能にするベイジアン コンテキスト アグリゲーターを使用するディープ ムーブメント プリミティブ アーキテクチャを提案します。
私たちの結果は、プリミティブが提供する直線運動の動作を維持しながら、ベースラインと比較してより多様な入力の選択肢で複雑な動きを再現するために私たちのアプローチを拡張できることを示しています。
要約(オリジナル)
Movement primitives are trainable parametric models that reproduce robotic movements starting from a limited set of demonstrations. Previous works proposed simple linear models that exhibited high sample efficiency and generalization power by allowing temporal modulation of movements (reproducing movements faster or slower), blending (merging two movements into one), via-point conditioning (constraining a movement to meet some particular via-points) and context conditioning (generation of movements based on an observed variable, e.g., position of an object). Previous works have proposed neural network-based motor primitive models, having demonstrated their capacity to perform tasks with some forms of input conditioning or time-modulation representations. However, there has not been a single unified deep motor primitive’s model proposed that is capable of all previous operations, limiting neural motor primitive’s potential applications. This paper proposes a deep movement primitive architecture that encodes all the operations above and uses a Bayesian context aggregator that allows a more sound context conditioning and blending. Our results demonstrate our approach can scale to reproduce complex motions on a larger variety of input choices compared to baselines while maintaining operations of linear movement primitives provide.
arxiv情報
著者 | Michael Przystupa,Faezeh Haghverd,Martin Jagersand,Samuele Tosatto |
発行日 | 2023-10-19 12:38:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google