Imitation Learning with Limited Actions via Diffusion Planners and Deep Koopman Controllers

要約

拡散ベースのロボットポリシーの最近の進歩は、マルチモーダルの行動を模倣する上で重要な可能性を示しています。
ただし、これらのアプローチでは、通常、対応するロボットアクションラベルとペアになった大量のデモデータが必要であり、かなりのデータ収集の負担を生み出します。
この作業では、観測デモデータを活用することにより、逆ダイナミクスコントローラーのアクション-DATA効率を改善することを目的としたプラン – トロールフレームワークを提案します。
具体的には、深いKoopmanオペレーターのフレームワークを採用して動的システムをモデル化し、観測のみの軌跡を利用して潜在的なアクション表現を学習します。
この潜在的な表現は、線形アクションデコーダーを使用して実際の高次元連続アクションに効果的にマッピングでき、最小限のアクションラベルデータを必要とします。
シミュレートされたロボット操作タスクの実験と、マルチモーダルの専門家デモンストレーションを使用した実際のロボット実験を通じて、私たちのアプローチはアクションデータ効率を大幅に向上させ、アクションデータが限られているタスクの成功率を達成することを実証します。

要約(オリジナル)

Recent advances in diffusion-based robot policies have demonstrated significant potential in imitating multi-modal behaviors. However, these approaches typically require large quantities of demonstration data paired with corresponding robot action labels, creating a substantial data collection burden. In this work, we propose a plan-then-control framework aimed at improving the action-data efficiency of inverse dynamics controllers by leveraging observational demonstration data. Specifically, we adopt a Deep Koopman Operator framework to model the dynamical system and utilize observation-only trajectories to learn a latent action representation. This latent representation can then be effectively mapped to real high-dimensional continuous actions using a linear action decoder, requiring minimal action-labeled data. Through experiments on simulated robot manipulation tasks and a real robot experiment with multi-modal expert demonstrations, we demonstrate that our approach significantly enhances action-data efficiency and achieves high task success rates with limited action data.

arxiv情報

著者 Jianxin Bi,Kelvin Lim,Kaiqi Chen,Yifei Huang,Harold Soh
発行日 2025-03-25 13:23:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク