Differentiable Cloth Parameter Identification and State Estimation in Manipulation

要約

ロボットによる布地操作の分野では、実行中または実行後の布地の状態を正確に推定することが不可欠です。
ただし、クロスの動的挙動に固有の複雑さとほぼ無限の自由度 (DoF) が大きな課題を引き起こします。
従来の方法は、布の状態を知る手がかりとしてキーポイントや境界を使用することに限定されており、特に折り畳みなどの複雑な作業の際に、布の構造を全体的に捉えることができませんでした。
さらに、布物理学の重大な影響は、過去の研究ではしばしば見落とされてきました。
これらの懸念に対処するために、微分可能な計算とロボット タスク向けに調整された異方性弾塑性 (A-EP) 構成モデルを活用する新しい微分可能なパイプラインである DiffCP を紹介します。
DiffCP は、「リアルからシムへ、リアルへ」の方法論を採用しています。
RGB-D カメラで現実世界の布地の状態を観察し、このデータを微分可能なシミュレーターに投影することで、システムは観察された状態とターゲットの状態の間の幾何学的差異を最小限に抑えて物理パラメータを特定します。
広範な実験により、さまざまな操作、把握ポイント、および速度の下で物理パラメータを決定する DiffCP の能力と安定性が実証されています。
さらに、その用途は布地の材質の識別、操作軌道の生成、そして特に布地の姿勢推定の精度の向上にまで拡張されています。
その他の実験やビデオは、補足資料および Web サイト (https://sites.google.com/view/diffcp) でご覧いただけます。

要約(オリジナル)

In the realm of robotic cloth manipulation, accurately estimating the cloth state during or post-execution is imperative. However, the inherent complexities in a cloth’s dynamic behavior and its near-infinite degrees of freedom (DoF) pose significant challenges. Traditional methods have been restricted to using keypoints or boundaries as cues for cloth state, which do not holistically capture the cloth’s structure, especially during intricate tasks like folding. Additionally, the critical influence of cloth physics has often been overlooked in past research. Addressing these concerns, we introduce DiffCP, a novel differentiable pipeline that leverages the Anisotropic Elasto-Plastic (A-EP) constitutive model, tailored for differentiable computation and robotic tasks. DiffCP adopts a “real-to-sim-to-real” methodology. By observing real-world cloth states through an RGB-D camera and projecting this data into a differentiable simulator, the system identifies physics parameters by minimizing the geometric variance between observed and target states. Extensive experiments demonstrate DiffCP’s ability and stability to determine physics parameters under varying manipulations, grasping points, and speeds. Additionally, its applications extend to cloth material identification, manipulation trajectory generation, and more notably, enhancing cloth pose estimation accuracy. More experiments and videos can be found in the supplementary materials and on the website: https://sites.google.com/view/diffcp.

arxiv情報

著者 Dongzhe Zheng,Siqiong Yao,Wenqiang Xu,Cewu Lu
発行日 2023-11-09 04:47:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク