DiSPo: Diffusion-SSM based Policy Learning for Coarse-to-Fine Action Discretization

要約

私たちは、デモンストレーション(LFD)から学習する粗から洗練されたスキルを生成する問題を解決することを目指しています。
精度をスケーリングするために、従来のLFDアプローチは、一般化機能が限られている外部補間またはダイナミクスモデルを備えた広範な微細なデモンストレーションに依存することがよくあります。
メモリ効率の高い学習と便利な粒度の変化のために、多様な粗いスキルから学習し、状態空間モデルであるMAMBAを活用することによりさまざまな制御尺度のアクションを生成する新しい拡散SSMベースのポリシー(Dispo)を提案します。
Our evaluations show the adoption of Mamba and the proposed step-scaling method enable DiSPo to outperform in three coarse-to-fine benchmark tests with maximum 81% higher success rate than baselines.
さらに、Dispoは、それほど重要でない領域で粗い動きを生成することにより、推論効率を改善します。
最終的に、シミュレーションおよび実際の操作タスクを使用したアクションのスケーラビリティを実証します。

要約(オリジナル)

We aim to solve the problem of generating coarse-to-fine skills learning from demonstrations (LfD). To scale precision, traditional LfD approaches often rely on extensive fine-grained demonstrations with external interpolations or dynamics models with limited generalization capabilities. For memory-efficient learning and convenient granularity change, we propose a novel diffusion-SSM based policy (DiSPo) that learns from diverse coarse skills and produces varying control scales of actions by leveraging a state-space model, Mamba. Our evaluations show the adoption of Mamba and the proposed step-scaling method enable DiSPo to outperform in three coarse-to-fine benchmark tests with maximum 81% higher success rate than baselines. In addition, DiSPo improves inference efficiency by generating coarse motions in less critical regions. We finally demonstrate the scalability of actions with simulation and real-world manipulation tasks.

arxiv情報

著者 Nayoung Oh,Jaehyeong Jang,Moonkyeong Jung,Daehyung Park
発行日 2025-05-08 04:54:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク