RoboHanger: Learning Generalizable Robotic Hanger Insertion for Diverse Garments

要約

衣服を掛ける作業では、ハンガーを衣服に挿入する方法を学ぶことが重要ですが、ロボット工学ではほとんど研究されていません。
この研究では、最初はテーブルの上に平らに置かれているさまざまな目に見えない衣類にハンガーを挿入するという問題に取り組みます。
このタスクは、長期にわたる性質、衣服の自由度の高さ、およびデータの欠如により、困難を伴います。
学習プロセスを簡素化するために、まずタスクをいくつかの段階に分割することを提案します。
次に、各段階をポリシー学習問題として定式化し、低次元のアクションパラメータ化を提案します。
データが限られているという課題を克服するために、独自のシミュレーターを構築し、144 個の合成衣類アセットを作成して、高品質のトレーニング データを効果的に収集します。
私たちのアプローチでは、単一ビューの深度画像とオブジェクト マスクを入力として使用します。これにより、Sim2Real の外観ギャップが軽減され、新しい衣服に対する高い一般化機能が実現されます。
シミュレーションと現実世界の両方での広範な実験により、提案した方法が検証されています。
シミュレーターでさまざまな衣服をトレーニングすることにより、私たちの方法は、現実世界で見たことのない 8 つの異なる衣服で 75% の成功率を達成しました。

要約(オリジナル)

For the task of hanging clothes, learning how to insert a hanger into a garment is crucial but has been seldom explored in robotics. In this work, we address the problem of inserting a hanger into various unseen garments that are initially laid out flat on a table. This task is challenging due to its long-horizon nature, the high degrees of freedom of the garments, and the lack of data. To simplify the learning process, we first propose breaking the task into several stages. Then, we formulate each stage as a policy learning problem and propose low-dimensional action parameterization. To overcome the challenge of limited data, we build our own simulator and create 144 synthetic clothing assets to effectively collect high-quality training data. Our approach uses single-view depth images and object masks as input, which mitigates the Sim2Real appearance gap and achieves high generalization capabilities for new garments. Extensive experiments in both simulation and the real world validate our proposed method. By training on various garments in the simulator, our method achieves a 75\% success rate with 8 different unseen garments in the real world.

arxiv情報

著者 Yuxing Chen,Songlin Wei,Bowen Xiao,Jiangran Lyu,Jiayi Chen,Feng Zhu,He Wang
発行日 2024-12-05 07:03:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク