要約
ロボットシステムを使用した衣服の操作は、生地の形状と変形可能な性質のために、挑戦的な作業です。
この論文では、以前のアプローチと比較して計算時間を短縮しながら精度を大幅に向上させるロボット衣服操作の新しい方法を提案します。
私たちの方法は、シーン画像を直接解釈し、ニューラルネットワークを使用してピクセルごとのエンドエフェクターアクションベクトルを生成するアクションジェネレーターを備えています。
ネットワークは、潜在的なアクションをランク付けする操作スコアマップも予測し、システムが最も効果的なアクションを選択できるようにします。
広範なシミュレーション実験は、この方法が以前のアプローチよりも高い展開とアライメントのパフォーマンスと速い計算時間を達成することを示しています。
現実世界の実験は、提案された方法がさまざまな衣服の種類によく一般化し、衣服をうまく平坦化することを示しています。
要約(オリジナル)
Garment manipulation using robotic systems is a challenging task due to the diverse shapes and deformable nature of fabric. In this paper, we propose a novel method for robotic garment manipulation that significantly improves the accuracy while reducing computational time compared to previous approaches. Our method features an action generator that directly interprets scene images and generates pixel-wise end-effector action vectors using a neural network. The network also predicts a manipulation score map that ranks potential actions, allowing the system to select the most effective action. Extensive simulation experiments demonstrate that our method achieves higher unfolding and alignment performances and faster computation time than previous approaches. Real-world experiments show that the proposed method generalizes well to different garment types and successfully flattens garments.
arxiv情報
著者 | Hu Cheng,Fuyuki Tokuda,Kazuhiro Kosuge |
発行日 | 2025-05-06 13:47:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google