要約
デモンストレーションからの学習(LfD)は、人間が提供するデモンストレーションからロボットのスキルを再現し、一般化する一般的な方法です。
この論文では、デモンストレーションを弾性マップとしてエンコードする、新しい最適化ベースの LfD 手法を提案します。
弾性マップは、バネのメッシュを介して接続されたノードのグラフです。
弾性マップをデモンストレーションのセットに適合させることにより、スキル モデルを構築します。
私たちのアプローチで定式化された最適化問題には、自然および物理的な解釈を伴う 3 つの目的が含まれています。
主項は、デカルト座標の平均二乗誤差を報酬とします。
2 番目の項は、最適な軌道全長をもたらす点の非等距離分布にペナルティを与えます。
3 番目の項では、滑らかさは評価されますが、非線形性は減点されます。
これらの二次目標は、ローカル オプティマイザーを使用して効率的に解決できる凸問題を形成します。
弾性マップを構築および重み付けするための 9 つの方法を検討し、ロボット タスクにおけるそのパフォーマンスを研究します。
また、UR5e マニピュレーター アームを使用したいくつかのシミュレーション実験と現実世界の実験で提案された方法を評価し、他の LfD アプローチと比較して、さまざまな指標にわたるその利点と柔軟性を実証します。
要約(オリジナル)
Learning from Demonstration (LfD) is a popular method of reproducing and generalizing robot skills from human-provided demonstrations. In this paper, we propose a novel optimization-based LfD method that encodes demonstrations as elastic maps. An elastic map is a graph of nodes connected through a mesh of springs. We build a skill model by fitting an elastic map to the set of demonstrations. The formulated optimization problem in our approach includes three objectives with natural and physical interpretations. The main term rewards the mean squared error in the Cartesian coordinate. The second term penalizes the non-equidistant distribution of points resulting in the optimum total length of the trajectory. The third term rewards smoothness while penalizing nonlinearity. These quadratic objectives form a convex problem that can be solved efficiently with local optimizers. We examine nine methods for constructing and weighting the elastic maps and study their performance in robotic tasks. We also evaluate the proposed method in several simulated and real-world experiments using a UR5e manipulator arm, and compare it to other LfD approaches to demonstrate its benefits and flexibility across a variety of metrics.
arxiv情報
著者 | Brendan Hertel,Matthew Pelland,S. Reza Ahmadzadeh |
発行日 | 2024-06-28 12:57:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google