要約
この研究では、接触の多いタスクに対するデモンストレーションからの学習 (LfD) を調査します。
モーションおよびインタラクションレンチの学習信号を表現するタスクフレームを選択する手順は、省略されるか、専門家の洞察を利用することがよくあります。
この記事では、デモンストレーション中に記録されたモーションとレンチのデータから最適なタスク フレームを導出する手順を説明します。
この手順は、専門家が対象とする制御構成を支えるために仮定された 2 つの原則に基づいており、世界またはロボット ツールのいずれかに固定されたタスク フレームの原点と方向を前提としています。
これはネジ理論に根ざしており、完全に確率論的であり、ハイパーパラメーターは一切含まれません。
この手順は、表面追従や多関節オブジェクトの操作など、いくつかのタスクを実証することで検証され、得られたフレームと想定されたエキスパート タスク フレームがよく一致していることがわかりました。
UR10e ロボットによる学習タスクのパフォーマンスを検証するために、派生タスク フレームとその中で表現された学習データに基づいて制約ベースのコントローラーが設計されました。
これらの実験は、提案されたアプローチの有効性と多用途性を示しました。
タスク フレーム導出アプローチは、LfD の最先端技術のギャップを埋め、コンタクトの多いタスク向けの LfD を実用化に近づけます。
要約(オリジナル)
This study investigates learning from demonstration (LfD) for contact-rich tasks. The procedure for choosing a task frame to express the learned signals for the motion and interaction wrench is often omitted or using expert insight. This article presents a procedure to derive the optimal task frame from motion and wrench data recorded during the demonstration. The procedure is based on two principles that are hypothesized to underpin the control configuration targeted by an expert, and assumes task frame origins and orientations that are fixed to either the world or the robot tool. It is rooted in screw theory, is entirely probabilistic and does not involve any hyperparameters. The procedure was validated by demonstrating several tasks, including surface following and manipulation of articulated objects, showing good agreement between the obtained and the assumed expert task frames. To validate the performance of the learned tasks by a UR10e robot, a constraint-based controller was designed based on the derived task frames and the learned data expressed therein. These experiments showed the effectiveness and versatility of the proposed approach. The task frame derivation approach fills a gap in the state of the art of LfD, bringing LfD for contact-rich tasks closer to practical application.
arxiv情報
著者 | Ali Mousavi Mohammadi,Maxim Vochten,Erwin Aertbeliën,Joris De Schutter |
発行日 | 2024-04-02 12:39:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google