要約
拡散モデルは、複雑な分布をモデル化するという課題を克服することで、ロボットの模倣学習に優れていることが示されています。
ただし、画像生成での人気が高いため、サンプリング速度は伝統的に優先事項ではなく、その用途は動的タスクに限られていました。
最近の研究により、拡散ベースのロボット ポリシーのサンプリング速度が向上しましたが、それらは画像生成ドメインの技術に限定されています。
軌道生成に特化したフレームワークである Temporally Entangled Diffusion (TEDi) を採用し、模倣学習のための拡散ベースのポリシーを高速化します。
トレーニングとサンプリングのための新しい方式を備えた TEDi ポリシーを紹介し、最先端の普及ベースの模倣学習ポリシーに適用すると、パフォーマンスを維持しながらサンプリング速度が大幅に向上することを示します。
要約(オリジナル)
Diffusion models have been shown to excel in robotic imitation learning by mastering the challenge of modeling complex distributions. However, sampling speed has traditionally not been a priority due to their popularity for image generation, limiting their application to dynamical tasks. While recent work has improved the sampling speed of diffusion-based robotic policies, they are restricted to techniques from the image generation domain. We adapt Temporally Entangled Diffusion (TEDi), a framework specific for trajectory generation, to speed up diffusion-based policies for imitation learning. We introduce TEDi Policy, with novel regimes for training and sampling, and show that it drastically improves the sampling speed while remaining performant when applied to state-of-the-art diffusion-based imitation learning policies.
arxiv情報
著者 | Sigmund H. Høeg,Lars Tingelstad |
発行日 | 2024-06-07 10:13:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google