要約
複雑なアクションを個別のスキル抽象化に変換することは、ロボット操作の強い可能性を実証しています。
既存のアプローチは、主に潜在変数モデル、例えばVQ-VAEを活用して、学習ベクトル(コードブック)を介してスキルの抽象化を学習しますが、コードブックの崩壊と学習スキル間の因果関係のモデル化に苦しんでいます。
これらの制限に対処するために、\ textbf {s} kill \ textbf {t} \ textbf {a} ugented \ textbf {r} otation(\ textbf {star})を紹介します。
具体的には、コードブックの崩壊を防ぐために、回転式の残留スキル量子化(RARSQ)を考案します。
回転ベースの勾配メカニズムにより、エンコーダー出力間の相対角度を勾配流にエンコードします。
同じスキルコード内のポイントは、グラデーションの方向に応じて、引き離されるか、近くに引っ張られることを余儀なくされます。
さらに、スキル間の因果関係を捉えるために、コヒーレントアクション生成の自己回帰メカニズムを通じてスキル表現間の依存関係を明示的にモデル化する因果スキルトランス(CST)を提示します。
広範な実験は、リベロのベンチマークとレアルワールドの両方のタスクでのスターの優位性を示しており、ベースラインよりも約12 \%が改善されています。
要約(オリジナル)
Transforming complex actions into discrete skill abstractions has demonstrated strong potential for robotic manipulation. Existing approaches mainly leverage latent variable models, e.g., VQ-VAE, to learn skill abstractions through learned vectors (codebooks), while they suffer from codebook collapse and modeling the causal relationship between learned skills. To address these limitations, we present \textbf{S}kill \textbf{T}raining with \textbf{A}ugmented \textbf{R}otation (\textbf{STAR}), a framework that advances both skill learning and composition to complete complex behaviors. Specifically, to prevent codebook collapse, we devise rotation-augmented residual skill quantization (RaRSQ). It encodes relative angles between encoder outputs into the gradient flow by rotation-based gradient mechanism. Points within the same skill code are forced to be either pushed apart or pulled closer together depending on gradient directions. Further, to capture the causal relationship between skills, we present causal skill transformer (CST) which explicitly models dependencies between skill representations through an autoregressive mechanism for coherent action generation. Extensive experiments demonstrate the superiority of STAR on both LIBERO benchmark and realworld tasks, with around 12\% improvement over the baselines.
arxiv情報
著者 | Hao Li,Qi Lv,Rui Shao,Xiang Deng,Yinchuan Li,Jianye Hao,Liqiang Nie |
発行日 | 2025-06-04 11:54:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google