要約
模倣学習は、ロボットにさまざまなタスクを教えるための効率的な方法です。
条件付き除去拡散プロセスを使用してアクションを生成する拡散ポリシーは、特にマルチモーダルの実証からの学習において、優れたパフォーマンスを実証しました。
ただし、パフォーマンスを維持し、モードバウンスを防ぐために複数のアクションを実行することに依存しています。これは、アクションが最新の観測に条件付けられていないため、その応答性を制限します。
これに対処するために、レスポンシブノイズリレー拡散ポリシー(RNR-DP)を導入します。これは、ノイズレベルが徐々に増加し、シーケンスのヘッドに即時のノイズフリーアクションを生成する連続的な除去メカニズムを備えたノイズリレーバッファーを維持します。
、尾に騒々しいアクションを追加しながら。
これにより、アクションが応答性が高く、最新の観察結果に条件付けられ、ノイズ関連バッファーを介した動きの一貫性を維持します。
この設計により、レスポンシブコントロールを必要とするタスクの処理が可能になり、除去ステップを再利用することでアクション生成が加速します。
応答に敏感なタスクに関する実験は、拡散ポリシーと比較して、成功率が18%の改善を達成していることを示しています。
通常のタスクでのさらなる評価は、RNR-DPが最良の加速法を6.9%超えていることを示しており、応答性がそれほど重要でないシナリオでの計算効率の利点を強調しています。
要約(オリジナル)
Imitation learning is an efficient method for teaching robots a variety of tasks. Diffusion Policy, which uses a conditional denoising diffusion process to generate actions, has demonstrated superior performance, particularly in learning from multi-modal demonstrates. However, it relies on executing multiple actions to retain performance and prevent mode bouncing, which limits its responsiveness, as actions are not conditioned on the most recent observations. To address this, we introduce Responsive Noise-Relaying Diffusion Policy (RNR-DP), which maintains a noise-relaying buffer with progressively increasing noise levels and employs a sequential denoising mechanism that generates immediate, noise-free actions at the head of the sequence, while appending noisy actions at the tail. This ensures that actions are responsive and conditioned on the latest observations, while maintaining motion consistency through the noise-relaying buffer. This design enables the handling of tasks requiring responsive control, and accelerates action generation by reusing denoising steps. Experiments on response-sensitive tasks demonstrate that, compared to Diffusion Policy, ours achieves 18% improvement in success rate. Further evaluation on regular tasks demonstrates that RNR-DP also exceeds the best acceleration method by 6.9%, highlighting its computational efficiency advantage in scenarios where responsiveness is less critical.
arxiv情報
著者 | Zhuoqun Chen,Xiu Yuan,Tongzhou Mu,Hao Su |
発行日 | 2025-02-18 10:40:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google