GenDOM: Generalizable One-shot Deformable Object Manipulation with Parameter-Aware Policy

要約

動作中の変形可能性には固有の不確実性があるため、ロープや布などの変形可能なオブジェクトの操作におけるこれまでの方法では、各オブジェクトの操作ポリシーをトレーニングするために何百もの現実世界のデモンストレーションが必要になることが多く、これが絶え間なく変化する現代社会への応用の妨げとなっていました。
世界。
この問題に対処するために、GenDOM を導入します。これは、操作ポリシーが 1 つの実際のデモンストレーションだけでさまざまな変形可能なオブジェクトを処理できるようにするフレームワークです。
これを達成するために、変形可能オブジェクト パラメータに基づいてポリシーを条件付けし、さまざまなシミュレートされた変形可能オブジェクトを使用してポリシーをトレーニングすることでポリシーを強化し、ポリシーがさまざまなオブジェクト パラメータに基づいてアクションを調整できるようにします。
推論時に、新しいオブジェクトが与えられると、GenDOM は、現実世界のデモンストレーションと微分可能な物理シミュレーターでのシミュレーションの点群のグリッド密度間の差異を最小限に抑えることにより、単一の実世界デモンストレーションだけで変形可能なオブジェクトのパラメーターを推定できます。
シミュレートされたオブジェクト操作セットアップと現実世界のオブジェクト操作セットアップの両方での経験的検証により、私たちの方法が 1 回のデモン​​ストレーションでさまざまなオブジェクトを操作でき、両方の環境でベースラインを大幅に上回っていることが明確に示されています (ドメイン内ロープで 62% の改善、ドメイン外ロープで 15% の改善)。
シミュレーションではロープの配布率が 26% 向上し、現実世界ではロープで 26%、布地で 50% の向上が見られ、ワンショットの変形可能オブジェクト操作におけるアプローチの有効性が実証されています。

要約(オリジナル)

Due to the inherent uncertainty in their deformability during motion, previous methods in deformable object manipulation, such as rope and cloth, often required hundreds of real-world demonstrations to train a manipulation policy for each object, which hinders their applications in our ever-changing world. To address this issue, we introduce GenDOM, a framework that allows the manipulation policy to handle different deformable objects with only a single real-world demonstration. To achieve this, we augment the policy by conditioning it on deformable object parameters and training it with a diverse range of simulated deformable objects so that the policy can adjust actions based on different object parameters. At the time of inference, given a new object, GenDOM can estimate the deformable object parameters with only a single real-world demonstration by minimizing the disparity between the grid density of point clouds of real-world demonstrations and simulations in a differentiable physics simulator. Empirical validations on both simulated and real-world object manipulation setups clearly show that our method can manipulate different objects with a single demonstration and significantly outperforms the baseline in both environments (a 62% improvement for in-domain ropes and a 15% improvement for out-of-distribution ropes in simulation, as well as a 26% improvement for ropes and a 50% improvement for cloths in the real world), demonstrating the effectiveness of our approach in one-shot deformable object manipulation.

arxiv情報

著者 So Kuroki,Jiaxian Guo,Tatsuya Matsushima,Takuya Okubo,Masato Kobayashi,Yuya Ikeda,Ryosuke Takanami,Paul Yoo,Yutaka Matsuo,Yusuke Iwasawa
発行日 2024-02-23 07:51:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク