要約
一般に、人間はさまざまなタスクについてオブジェクトを異なる方法で把握します。たとえば、「ナイフのハンドルをつかんで、刃をつかむために握ります」。
ロボットグラスのポーズ検出研究の分野では、一部の既存の作品では、このタスク指向の把握を検討し、いくらかの進歩を遂げましたが、一般的に低いグリッパータイプまたは散らかっていない設定によって制約されています。
人生。
より一般的で実用的な把握モデルを取得することを目的として、この論文では、タスク指向の6-DOFグラップポーズ検出と呼ばれる問題を調査し、タスク指向の問題をより一般的な6-DOFに拡張します。
散らかった(マルチオブジェクト)シナリオでのポーズ検出を把握します。
この目的のために、タスク指向の大規模な握りデータセット、6-dofタスクグラップ(6DTG)を構築します。これには、200万を超える6-dofグラップポーズを備えた4391の散らかったシーンがあります。
各把握には、6つのタスクと198のオブジェクトが合計で含まれる特定のタスクが注釈が付けられています。
さらに、TO6DGC問題に対処するための強力なベースラインである1段階のTaskGrasp(OSTG)を提案します。
OSTGは、タスク指向のポイント選択戦略を採用して、把握する場所を検出し、特定のタスクを与えられたタスクを把握する方法を決定するタスク指向の把握モジュールを採用しています。
OSTGの有効性を評価するために、6DTGで広範な実験が行われます。
結果は、私たちの方法が複数のメトリック上のさまざまなベースラインよりも優れていることを示しています。
また、実際のロボット実験では、OSTGがタスク指向の把握ポイントと6-dofの把握ポーズをよりよく認識していることも確認しています。
要約(オリジナル)
In general, humans would grasp an object differently for different tasks, e.g., ‘grasping the handle of a knife to cut’ vs. ‘grasping the blade to hand over’. In the field of robotic grasp pose detection research, some existing works consider this task-oriented grasping and made some progress, but they are generally constrained by low-DoF gripper type or non-cluttered setting, which is not applicable for human assistance in real life. With an aim to get more general and practical grasp models, in this paper, we investigate the problem named Task-Oriented 6-DoF Grasp Pose Detection in Clutters (TO6DGC), which extends the task-oriented problem to a more general 6-DOF Grasp Pose Detection in Cluttered (multi-object) scenario. To this end, we construct a large-scale 6-DoF task-oriented grasping dataset, 6-DoF Task Grasp (6DTG), which features 4391 cluttered scenes with over 2 million 6-DoF grasp poses. Each grasp is annotated with a specific task, involving 6 tasks and 198 objects in total. Moreover, we propose One-Stage TaskGrasp (OSTG), a strong baseline to address the TO6DGC problem. Our OSTG adopts a task-oriented point selection strategy to detect where to grasp, and a task-oriented grasp generation module to decide how to grasp given a specific task. To evaluate the effectiveness of OSTG, extensive experiments are conducted on 6DTG. The results show that our method outperforms various baselines on multiple metrics. Real robot experiments also verify that our OSTG has a better perception of the task-oriented grasp points and 6-DoF grasp poses.
arxiv情報
著者 | An-Lan Wang,Nuo Chen,Kun-Yu Lin,Li Yuan-Ming,Wei-Shi Zheng |
発行日 | 2025-02-24 09:05:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google