要約
多くの場合、ロボットは、単一のアクションとしてであろうと、より大きく、より複雑なタスクを表す一連のアクションであろうと、原始的な動きを実行するように求められます。
これらの動きは多くの方法で学ぶことができますが、一般的な動きは教師によってロボットに提示されたデモンストレーションからです。
ただし、これらのデモンストレーションは必ずしも単純な動き自体ではなく、複雑なデモンストレーションは原始的な動きに分割またはセグメント化する必要があります。
この作業では、自己相関と信号処理からの相互相関に触発された手法を使用して、セグメンテーションへのパラメーターフリーアプローチを提示します。
相互相関では、代表的な信号をより大きな信号と相関させることにより、代表的な信号がいくつかのより大きく、より複雑な信号に見られます。
この同じアイデアは、代表的なモーションプリミティブを備えたロボットモーションとデモンストレーションのセグメント化に適用できます。
これにより、迅速かつ正確なセグメンテーションが発生し、パラメーターは取られません。
このペーパーの主な貢献の1つは、ロボットの動きに固有の機能をキャプチャできる類似性メトリックを採用することにより、相互相関プロセスの変更です。
フレームワークを検証するために、シミュレーションと実世界の両方で複雑なタスクのいくつかの実験を実施します。
また、さまざまな類似性メトリックを比較することにより、セグメンテーションフレームワークの有効性を評価します。
要約(オリジナル)
Often, robots are asked to execute primitive movements, whether as a single action or in a series of actions representing a larger, more complex task. These movements can be learned in many ways, but a common one is from demonstrations presented to the robot by a teacher. However, these demonstrations are not always simple movements themselves, and complex demonstrations must be broken down, or segmented, into primitive movements. In this work, we present a parameter-free approach to segmentation using techniques inspired by autocorrelation and cross-correlation from signal processing. In cross-correlation, a representative signal is found in some larger, more complex signal by correlating the representative signal with the larger signal. This same idea can be applied to segmenting robot motion and demonstrations, provided with a representative motion primitive. This results in a fast and accurate segmentation, which does not take any parameters. One of the main contributions of this paper is the modification of the cross-correlation process by employing similarity metrics that can capture features specific to robot movements. To validate our framework, we conduct several experiments of complex tasks both in simulation and in real-world. We also evaluate the effectiveness of our segmentation framework by comparing various similarity metrics.
arxiv情報
著者 | Wendy Carvalho,Meriem Elkoudi,Brendan Hertel,Reza Azadeh |
発行日 | 2025-05-09 14:47:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google