Affordance-Driven Next-Best-View Planning for Robotic Grasping

要約

雑然とした環境で遮蔽されたオブジェクトを把握することは、複雑なロボット操作タスクにおいて不可欠な要素です。
本稿では、新たな視点からシーンを継続的に観察することにより、対象オブジェクトの実現可能な把握を見つけることを試みる、AffordanCE 主導の Next-Best-View 計画ポリシー (ACE-NBV) を紹介します。
このポリシーは、ビュー方向が把握ビューと同じである場合、オクルージョンされたオブジェクトの把握アフォーダンスがビューの下でより適切に測定できるという観察によって動機付けられています。
具体的には、私たちの方法は、新しいビュー画像のパラダイムを活用して、以前に観察されていないビューの下での把握アフォーダンスを予測し、ターゲットオブジェクトの想像上の最高の把握品質のゲインに基づいて次の観察ビューを選択します。
シミュレーションと実際のロボットでの実験結果は、提案されたアフォーダンス主導の次善のビュー計画ポリシーの有効性を示しています。
実際のロボット実験の追加の結果、コード、ビデオは補足資料にあります。

要約(オリジナル)

Grasping occluded objects in cluttered environments is an essential component in complex robotic manipulation tasks. In this paper, we introduce an AffordanCE-driven Next-Best-View planning policy (ACE-NBV) that tries to find a feasible grasp for target object via continuously observing scenes from new viewpoints. This policy is motivated by the observation that the grasp affordances of an occluded object can be better-measured under the view when the view-direction are the same as the grasp view. Specifically, our method leverages the paradigm of novel view imagery to predict the grasps affordances under previously unobserved view, and select next observation view based on the gain of the highest imagined grasp quality of the target object. The experimental results in simulation and on the real robot demonstrate the effectiveness of the proposed affordance-driven next-best-view planning policy. Additional results, code, and videos of real robot experiments can be found in the supplementary materials.

arxiv情報

著者 Xuechao Zhang,Dong Wang,Sun Han,Weichuang Li,Bin Zhao,Zhigang Wang,Xiaoming Duan,Chongrong Fang,Xuelong Li,Jianping He
発行日 2023-09-18 08:09:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク