Dynamic Manipulation of Deformable Objects in 3D: Simulation, Benchmark and Learning Strategy

要約

目標条件付きの動的操作は、特に高度の自由と過小評価を特徴とする変形可能なオブジェクトシナリオにおいて、複雑なシステムダイナミクスと厳しいタスクの制約により、本質的に困難です。
以前の方法は、多くの場合、問題を低速または2D設定に簡素化し、実際の3Dタスクへの適用性を制限します。
この作業では、代表的な課題として3Dゴールコンディショニングされたロープ操作を探ります。
データ不足を緩和するために、コンパクトな状態表現を可能にし、効率的な政策学習を促進する、低秩序ダイナミクスに基づいた新しいシミュレーションフレームワークとベンチマークを導入します。
これに基づいて、模倣前のテスト時間適応と模倣前のテスト時間適応を統合するフレームワークであるダイナミクスに情報に基づいた拡散ポリシー(DIDP)を提案します。
まず、縮小順序空間内で逆ダイナミクスを学習する拡散ポリシーを設計し、模倣学習がデータの適合を超えて動き、基礎となる物理構造をキャプチャできるようにします。
第二に、拡散プロセスに運動学的境界条件と構造化されたダイナミクスが課される物理学に基づいたテスト時間適応スキームを提案し、操作実行の一貫性と信頼性を確保します。
広範な実験では、提案されたアプローチを検証し、学習ポリシーの精度と堅牢性の観点から強力なパフォーマンスを実証します。

要約(オリジナル)

Goal-conditioned dynamic manipulation is inherently challenging due to complex system dynamics and stringent task constraints, particularly in deformable object scenarios characterized by high degrees of freedom and underactuation. Prior methods often simplify the problem to low-speed or 2D settings, limiting their applicability to real-world 3D tasks. In this work, we explore 3D goal-conditioned rope manipulation as a representative challenge. To mitigate data scarcity, we introduce a novel simulation framework and benchmark grounded in reduced-order dynamics, which enables compact state representation and facilitates efficient policy learning. Building on this, we propose Dynamics Informed Diffusion Policy (DIDP), a framework that integrates imitation pretraining with physics-informed test-time adaptation. First, we design a diffusion policy that learns inverse dynamics within the reduced-order space, enabling imitation learning to move beyond na\’ive data fitting and capture the underlying physical structure. Second, we propose a physics-informed test-time adaptation scheme that imposes kinematic boundary conditions and structured dynamics priors on the diffusion process, ensuring consistency and reliability in manipulation execution. Extensive experiments validate the proposed approach, demonstrating strong performance in terms of accuracy and robustness in the learned policy.

arxiv情報

著者 Guanzhou Lan,Yuqi Yang,Anup Teejo Mathew,Feiping Nie,Rong Wang,Xuelong Li,Federico Renda,Bin Zhao
発行日 2025-05-23 03:28:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク