Fast and Robust Visuomotor Riemannian Flow Matching Policy

要約

拡散ベースの視覚運動ポリシーは、視覚データを高次元のマルチモーダルなアクション分布と効果的に組み合わせることで、複雑なロボットタスクの学習に優れています。
ただし、拡散モデルはコストのかかるノイズ除去プロセスにより推論が遅くなることが多く、最近の蒸留アプローチから生じる複雑な逐次トレーニングが必要になります。
このペーパーでは、フロー マッチング (FM) の簡単なトレーニングと高速推論機能を継承するモデルであるリーマン フロー マッチング ポリシー (RFMP) を紹介します。
さらに、RFMP には、ロボットの状態がリーマン多様体上に存在するため、現実的なロボット アプリケーションで一般的に見られる幾何学的制約が本質的に組み込まれています。
RFMP の堅牢性を強化するために、ラサールの不変原理を活用して、ターゲットのリーマン分布をサポートする安定性を FM のダイナミクスに提供する Stable RFMP (SRFMP) を提案します。
8 つのシミュレートされた現実世界のタスクに対する厳密な評価により、RFMP が効率的なトレーニングと推論フェーズにより、ユークリッド空間とリーマン空間上の複雑な感覚運動ポリシーを首尾よく学習および合成し、一貫性ポリシーとの競争力を維持しながら拡散ポリシーを上回るパフォーマンスを示していることが示されています。

要約(オリジナル)

Diffusion-based visuomotor policies excel at learning complex robotic tasks by effectively combining visual data with high-dimensional, multi-modal action distributions. However, diffusion models often suffer from slow inference due to costly denoising processes or require complex sequential training arising from recent distilling approaches. This paper introduces Riemannian Flow Matching Policy (RFMP), a model that inherits the easy training and fast inference capabilities of flow matching (FM). Moreover, RFMP inherently incorporates geometric constraints commonly found in realistic robotic applications, as the robot state resides on a Riemannian manifold. To enhance the robustness of RFMP, we propose Stable RFMP (SRFMP), which leverages LaSalle’s invariance principle to equip the dynamics of FM with stability to the support of a target Riemannian distribution. Rigorous evaluation on eight simulated and real-world tasks show that RFMP successfully learns and synthesizes complex sensorimotor policies on Euclidean and Riemannian spaces with efficient training and inference phases, outperforming Diffusion Policies while remaining competitive with Consistency Policies.

arxiv情報

著者 Haoran Ding,Noémie Jaquier,Jan Peters,Leonel Rozo
発行日 2024-12-14 15:03:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク