Online Imitation Learning for Manipulation via Decaying Relative Correction through Teleoperation

要約

テレオティー付きロボットマニピュレーターは、模倣学習を通じて制御ポリシーをトレーニングするために使用できるデモデータの収集を可能にします。
ただし、このような方法では、堅牢なポリシーを開発したり、新しいタスクや目に見えないタスクに適応するために、かなりの量のトレーニングデータが必要になる場合があります。
専門家のフィードバックはポリシーのパフォーマンスを大幅に向上させることができますが、継続的なフィードバックを提供することは、専門家にとって認知的に要求が厳しく、時間がかかります。
この課題に対処するために、ポリシーモデルによって生成された軌跡に対して6度の自由度を備えた空間的修正を提供できるケーブル駆動型の遠隔操作システムを使用することを提案します。
具体的には、専門家によって提供され、一時的に存在し、専門家が必要とする介入手順を減らす空間オフセットベクトルに基づく、減衰相対補正(DRC)と呼ばれる修正方法を提案します。
我々の結果は、DRCが必要な専門家の介入率を標準的な絶対修正方法と比較して30 \%減少させることを示しています。
さらに、DRCをオンライン模倣学習フレームワーク内に統合することで、ラズベリーの収穫や布の拭き取りなどの操作タスクの成功率が急速に向上することを示しています。

要約(オリジナル)

Teleoperated robotic manipulators enable the collection of demonstration data, which can be used to train control policies through imitation learning. However, such methods can require significant amounts of training data to develop robust policies or adapt them to new and unseen tasks. While expert feedback can significantly enhance policy performance, providing continuous feedback can be cognitively demanding and time-consuming for experts. To address this challenge, we propose to use a cable-driven teleoperation system which can provide spatial corrections with 6 degree of freedom to the trajectories generated by a policy model. Specifically, we propose a correction method termed Decaying Relative Correction (DRC) which is based upon the spatial offset vector provided by the expert and exists temporarily, and which reduces the intervention steps required by an expert. Our results demonstrate that DRC reduces the required expert intervention rate by 30\% compared to a standard absolute corrective method. Furthermore, we show that integrating DRC within an online imitation learning framework rapidly increases the success rate of manipulation tasks such as raspberry harvesting and cloth wiping.

arxiv情報

著者 Cheng Pan,Hung Hon Cheng,Josie Hughes
発行日 2025-03-19 16:06:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク