要約
本研究では、透明なビニール袋の効果的な把持を計画するための2つの新規なビジョン手法と、平行グリッパを備えたソーヤアームが把持を実行できるようにするための制御手法を開発する。1つ目のビジョン手法は、古典的な画像処理とヒューリスティック(Cannyエッジ検出など)に基づき、把持対象や角度を選択する。2つ目は、人間のラベル付きデータセットで訓練したディープラーニングモデルを使用して、人間の把持決定を模倣する。クラスタリングアルゴリズムは、各ビジョンメソッドの出力のノイズを除去するために使用されます。その後、ワークスペースPD制御法を用いて、各把持を実行する。2つのビジョン手法のうち、ディープラーニングに基づく手法がより効果的であることがわかる。
要約(オリジナル)
We develop two novel vision methods for planning effective grasps for clear plastic bags, as well as a control method to enable a Sawyer arm with a parallel gripper to execute the grasps. The first vision method is based on classical image processing and heuristics (e.g., Canny edge detection) to select a grasp target and angle. The second uses a deep-learning model trained on a human-labeled data set to mimic human grasp decisions. A clustering algorithm is used to de-noise the outputs of each vision method. Subsequently, a workspace PD control method is used to execute each grasp. Of the two vision methods, we find the deep-learning based method to be more effective.
arxiv情報
著者 | Joohwan Seo,Jackson Wagner,Anuj Raicura,Jake Kim |
発行日 | 2023-05-12 17:36:22+00:00 |
arxivサイト | arxiv_id(pdf) |