Bagging by Learning to Singulate Layers Using Interactive Perception

要約

家庭や産業における布地の取り扱いや2次元変形可能な材料の作業の多くは、袋を開けたり、縫製のために衣服を整えたりするように、材料の層を単一化する必要があります。特殊なセンシングやエンドエフェクタを必要とする方法とは対照的に、我々は、通常の平行顎グリッパを用いて視覚的な観察のみを用いる。我々はSLIP: Singulating Layers using Interactive Perceptionを提案し、SLIPを自律的な袋詰め作業に適用する。SLIP-Baggingを開発する。SLIP-Baggingは、構造化されていない状態からビニール袋や布袋を操作する袋詰めアルゴリズムであり、SLIPを用いて袋の最上層を把持し、物体を挿入するために袋を開封する。物理的な実験では、YuMiロボットが様々な素材、形状、サイズの袋で67%~81%の成功率を達成し、先行研究よりも成功率と汎用性が大幅に向上した。また、SLIPは、折り畳まれた布や衣服の層を単一化する作業などにも適用できることが実験から示唆されている。補足資料はhttps://sites.google.com/view/slip-bagging/。

要約(オリジナル)

Many fabric handling and 2D deformable material tasks in homes and industry require singulating layers of material such as opening a bag or arranging garments for sewing. In contrast to methods requiring specialized sensing or end effectors, we use only visual observations with ordinary parallel jaw grippers. We propose SLIP: Singulating Layers using Interactive Perception, and apply SLIP to the task of autonomous bagging. We develop SLIP-Bagging, a bagging algorithm that manipulates a plastic or fabric bag from an unstructured state, and uses SLIP to grasp the top layer of the bag to open it for object insertion. In physical experiments, a YuMi robot achieves a success rate of 67% to 81% across bags of a variety of materials, shapes, and sizes, significantly improving in success rate and generality over prior work. Experiments also suggest that SLIP can be applied to tasks such as singulating layers of folded cloth and garments. Supplementary material is available at https://sites.google.com/view/slip-bagging/.

arxiv情報

著者 Lawrence Yunliang Chen,Baiyu Shi,Roy Lin,Daniel Seita,Ayah Ahmad,Richard Cheng,Thomas Kollar,David Held,Ken Goldberg
発行日 2023-09-01 06:04:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO パーマリンク