要約
模倣学習、特に拡散ポリシーに基づく方法は、アクションポリシー生成に対する強力なアプローチとして、具体化されたAIで最近かなりの牽引力を獲得しました。
これらのモデルは、ノイズを予測することを学習することにより、アクションポリシーを効率的に生成します。
ただし、従来の拡散ポリシー方法は、反復的な除去に依存しており、非効率的な推論と応答時間が遅く、リアルタイムのロボット制御を妨げます。
これらの制限に対処するために、分類器のないガイダンスをショートカットベースの加速と統合する分類器を含まないショートカット拡散ポリシー(CF-SDP)を提案し、推論速度を大幅に改善しながら効率的なタスク固有のアクション生成を可能にします。
さらに、拡散モデリングをショートカットモデルのSO(3)マニホールドに拡張し、等方性ガウス分布で接線空間の前方プロセスと逆プロセスを定義します。
これにより、安定した正確な回転推定が保証され、拡散ベースの制御の有効性が向上します。
私たちのアプローチは、タスクのパフォーマンスを維持しながら、DDIMベースの拡散ポリシーと比較して、拡散推論で5倍近くの加速を達成します。
Robotwinシミュレーションプラットフォームとさまざまなタスクにわたる実際のシナリオの両方での評価は、私たちの方法の優位性を示しています。
要約(オリジナル)
Imitation learning, particularly Diffusion Policies based methods, has recently gained significant traction in embodied AI as a powerful approach to action policy generation. These models efficiently generate action policies by learning to predict noise. However, conventional Diffusion Policy methods rely on iterative denoising, leading to inefficient inference and slow response times, which hinder real-time robot control. To address these limitations, we propose a Classifier-Free Shortcut Diffusion Policy (CF-SDP) that integrates classifier-free guidance with shortcut-based acceleration, enabling efficient task-specific action generation while significantly improving inference speed. Furthermore, we extend diffusion modeling to the SO(3) manifold in shortcut model, defining the forward and reverse processes in its tangent space with an isotropic Gaussian distribution. This ensures stable and accurate rotational estimation, enhancing the effectiveness of diffusion-based control. Our approach achieves nearly 5x acceleration in diffusion inference compared to DDIM-based Diffusion Policy while maintaining task performance. Evaluations both on the RoboTwin simulation platform and real-world scenarios across various tasks demonstrate the superiority of our method.
arxiv情報
著者 | Haiyong Yu,Yanqiong Jin,Yonghao He,Wei Sui |
発行日 | 2025-04-14 06:37:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google