Local Occupancy-Enhanced Object Grasping with Multiple Triplanar Projection

要約

この論文では、一般的な物体をロボットで掴むという課題について取り上げます。
先行研究と同様に、このタスクでは、深度カメラでキャプチャされた単一ビューの 3D 観察 (つまり、点群) を入力として読み取ります。
重要なことは、オブジェクトの把握を成功させるには、シーン内のオブジェクトの形状を包括的に理解することが非常に必要であるということです。
ただし、単一ビューの観察ではオクルージョン (自己オクルージョンとオブジェクト間のオクルージョンの両方を含む) が発生することが多く、特に複雑で乱雑なシーンでは点群にギャップが生じます。
これにより、物体の形状の認識が不完全になり、物体を掴む際に失敗や不正確な姿勢推定が頻繁に発生します。
この論文では、単純ではあるが効果的な解決策、つまり局所占有予測を通じて把握関連シーン領域を完成させることでこの問題に取り組みます。
以前の実践に従って、提案されたモデルは、シーン内で最も可能性の高い多数の把握点を提案することによって最初に実行されます。
各把握点の周囲で、モジュールはその近傍のボクセルが空であるか、何らかのオブジェクトによって占有されていると推測するように設計されています。
重要なのは、占有マップはローカルとグローバルの両方の手がかりを融合することによって推論されることです。
長距離のコンテキスト情報を効率的に集約するために、マルチグループ トライプレーン スキームを実装します。
このモデルはさらに、局所占有強化物体形状情報を利用して 6-DoF 把握ポーズを推定し、最上位の把握提案を返します。
大規模な GraspNet-1Billion ベンチマークと実際のロボット アームの両方での包括的な実験により、提案された方法が乱雑で遮蔽されたシーンの未観察部分を効果的に完了できることが実証されました。
占有強化機能の恩恵を受けて、当社のモデルは、平均精度の把握などのさまざまなパフォーマンス指標の下で、他の競合手法を明らかに上回っています。

要約(オリジナル)

This paper addresses the challenge of robotic grasping of general objects. Similar to prior research, the task reads a single-view 3D observation (i.e., point clouds) captured by a depth camera as input. Crucially, the success of object grasping highly demands a comprehensive understanding of the shape of objects within the scene. However, single-view observations often suffer from occlusions (including both self and inter-object occlusions), which lead to gaps in the point clouds, especially in complex cluttered scenes. This renders incomplete perception of the object shape and frequently causes failures or inaccurate pose estimation during object grasping. In this paper, we tackle this issue with an effective albeit simple solution, namely completing grasping-related scene regions through local occupancy prediction. Following prior practice, the proposed model first runs by proposing a number of most likely grasp points in the scene. Around each grasp point, a module is designed to infer any voxel in its neighborhood to be either void or occupied by some object. Importantly, the occupancy map is inferred by fusing both local and global cues. We implement a multi-group tri-plane scheme for efficiently aggregating long-distance contextual information. The model further estimates 6-DoF grasp poses utilizing the local occupancy-enhanced object shape information and returns the top-ranked grasp proposal. Comprehensive experiments on both the large-scale GraspNet-1Billion benchmark and real robotic arm demonstrate that the proposed method can effectively complete the unobserved parts in cluttered and occluded scenes. Benefiting from the occupancy-enhanced feature, our model clearly outstrips other competing methods under various performance metrics such as grasping average precision.

arxiv情報

著者 Kangqi Ma,Hao Dong,Yadong Mu
発行日 2024-07-22 16:22:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク