Fast and Robust Visuomotor Riemannian Flow Matching Policy

要約

拡散ベースの視覚運動ポリシーは、視覚データを高次元のマルチモーダルアクション分布と効果的に組み合わせることにより、複雑なロボットタスクを学習することに優れています。
ただし、拡散モデルは、費用のかかる除去プロセスのために遅い推論に悩まされるか、最近の蒸留アプローチから生じる複雑な連続トレーニングが必要です。
このペーパーでは、フローマッチング(FM)の簡単なトレーニングと高速推論機能を継承するモデルであるRiemannian Flow Matchingポリシー(RFMP)を紹介します。
さらに、RFMPは、ロボット状態がリーマニアの多様体に存在するため、現実的なロボットアプリケーションで一般的に見られる幾何学的制約を本質的に組み込んでいます。
RFMPの堅牢性を高めるために、安定したRFMP(SRFMP)を提案します。これは、Lasalleの不変性の原則を活用して、FMのダイナミクスにターゲットリーマン分布のサポートに安定性を装備します。
8つのシミュレートされた現実世界のタスクに関する厳密な評価は、RFMPが効率的なトレーニング段階と推論フェーズを備えたユークリッドおよびリーマニアンスペースの複雑な感覚運動ポリシーを成功および合成し、拡散ポリシーと一貫性ポリシーを上回ることを示しています。

要約(オリジナル)

Diffusion-based visuomotor policies excel at learning complex robotic tasks by effectively combining visual data with high-dimensional, multi-modal action distributions. However, diffusion models often suffer from slow inference due to costly denoising processes or require complex sequential training arising from recent distilling approaches. This paper introduces Riemannian Flow Matching Policy (RFMP), a model that inherits the easy training and fast inference capabilities of flow matching (FM). Moreover, RFMP inherently incorporates geometric constraints commonly found in realistic robotic applications, as the robot state resides on a Riemannian manifold. To enhance the robustness of RFMP, we propose Stable RFMP (SRFMP), which leverages LaSalle’s invariance principle to equip the dynamics of FM with stability to the support of a target Riemannian distribution. Rigorous evaluation on eight simulated and real-world tasks show that RFMP successfully learns and synthesizes complex sensorimotor policies on Euclidean and Riemannian spaces with efficient training and inference phases, outperforming Diffusion Policies and Consistency Policies.

arxiv情報

著者 Haoran Ding,Noémie Jaquier,Jan Peters,Leonel Rozo
発行日 2025-05-16 17:41:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク