PRIMP: PRobabilistically-Informed Motion Primitives for Efficient Affordance Learning from Demonstration

要約

本稿ではロボットマニピュレータの作業空間における確率密度を用いたデモンストレーションからの学習法を提案する。
「確率論的情報に基づいたモーションプリミティブ(PRIMP)」と名付けられたこの手法は、位置と方向の両方を含む6Dワークスペース内のエンドエフェクターの軌道の確率分布を学習します。
不確実性のあるポーズや視点の変更により、斬新なシチュエーションにも対応します。
この方法自体はロボットに依存せず、学習した分布をワークスペース密度に適応させて別のロボットに転送できます。
学習された軌道分布は、最適化ベースの動作計画アルゴリズムをガイドするために使用され、デモンストレーション プロセス中には見えない新たな障害物をロボットが回避できるようにします。
提案された手法は、いくつかのベンチマーク実験によって評価されます。
PRIMP は 5 倍以上の速度で実行され、デモンストレーションと新しい目的のポーズの両方に 2 倍以上近い軌道を一般化します。
次に、オブジェクトのアフォーダンスを学習するロボット想像法と組み合わせて、物理実験を通じてツールの使用を学習するための PRIMP の適用可能性を示します。

要約(オリジナル)

This paper proposes a learning-from-demonstration method using probability densities on the workspaces of robot manipulators. The method, named ‘PRobabilistically-Informed Motion Primitives (PRIMP)’, learns the probability distribution of the end effector trajectories in the 6D workspace that includes both positions and orientations. It is able to adapt to new situations such as novel via poses with uncertainty and a change of viewing frame. The method itself is robot-agnostic, in which the learned distribution can be transferred to another robot with the adaptation to its workspace density. The learned trajectory distribution is then used to guide an optimization-based motion planning algorithm to further help the robot avoid novel obstacles that are unseen during the demonstration process. The proposed methods are evaluated by several sets of benchmark experiments. PRIMP runs more than 5 times faster while generalizing trajectories more than twice as close to both the demonstrations and novel desired poses. It is then combined with our robot imagination method that learns object affordances, illustrating the applicability of PRIMP to learn tool use through physical experiments.

arxiv情報

著者 Sipu Ruan,Weixiao Liu,Xiaoli Wang,Xin Meng,Gregory S. Chirikjian
発行日 2023-05-25 06:21:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク