Bagging by Learning to Singulate Layers Using Interactive Perception

要約

家庭や産業での多くのファブリック処理および 2D 変形可能なマテリアル タスクでは、バッグを開けたり、縫製のために衣服を配置したりするなど、マテリアルの層を個別化する必要があります。
特殊なセンシングやエンド エフェクターを必要とする方法とは対照的に、通常の平行ジョー グリッパーによる目視観察のみを使用します。
SLIP: Singulating Layers using Interactive Perception を提案し、SLIP を自律的なバギングのタスクに適用します。
SLIP-Bagging は、プラスチック製または布製のバッグを構造化されていない状態から操作し、SLIP を使用してバッグの最上層をつかみ、オブジェクトを挿入するために開きます。
物理実験では、YuMi ロボットはさまざまな素材、形状、サイズのバッグで 67% から 81% の成功率を達成し、以前の作業よりも成功率と一般性が大幅に向上しています。
実験はまた、SLIP が折りたたまれた布や衣類のレイヤーを単一化するなどのタスクに適用できることを示唆しています。
補足資料は、https://sites.google.com/view/slip-bagging/ で入手できます。

要約(オリジナル)

Many fabric handling and 2D deformable material tasks in homes and industry require singulating layers of material such as opening a bag or arranging garments for sewing. In contrast to methods requiring specialized sensing or end effectors, we use only visual observations with ordinary parallel jaw grippers. We propose SLIP: Singulating Layers using Interactive Perception, and apply SLIP to the task of autonomous bagging. We develop SLIP-Bagging, a bagging algorithm that manipulates a plastic or fabric bag from an unstructured state, and uses SLIP to grasp the top layer of the bag to open it for object insertion. In physical experiments, a YuMi robot achieves a success rate of 67% to 81% across bags of a variety of materials, shapes, and sizes, significantly improving in success rate and generality over prior work. Experiments also suggest that SLIP can be applied to tasks such as singulating layers of folded cloth and garments. Supplementary material is available at https://sites.google.com/view/slip-bagging/.

arxiv情報

著者 Lawrence Yunliang Chen,Baiyu Shi,Roy Lin,Daniel Seita,Ayah Ahmad,Richard Cheng,Thomas Kollar,David Held,Ken Goldberg
発行日 2023-03-29 17:59:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク