SA6D: Self-Adaptive Few-Shot 6D Pose Estimator for Novel and Occluded Objects

要約

現実世界の物体の有意義なロボット操作を可能にするために、6D 姿勢推定は重要な側面の 1 つです。
既存のアプローチのほとんどでは、新しいオブジェクト インスタンスが継続的に導入されるシナリオ、特に重度のオクルージョンが発生するシナリオに予測を拡張することが困難です。
この研究では、SA6D と呼ばれる少数ショット姿勢推定 (FSPE) アプローチを提案します。これは、自己適応セグメンテーション モジュールを使用して新しいターゲット オブジェクトを識別し、少数の乱雑なオブジェクトのみを使用してターゲット オブジェクトの点群モデルを構築します。
参考画像。
既存の方法とは異なり、SA6D はオブジェクト中心の参照画像や追加のオブジェクト情報を必要としないため、カテゴリ全体でより一般化可能でスケーラブルなソリューションになります。
私たちは、現実世界の卓上オブジェクト データセットで SA6D を評価し、SA6D が既存の FSPE 手法よりも優れていることを実証します。特にオクルージョンのある乱雑なシーンにおいて、必要な参照画像は少なくて済みます。

要約(オリジナル)

To enable meaningful robotic manipulation of objects in the real-world, 6D pose estimation is one of the critical aspects. Most existing approaches have difficulties to extend predictions to scenarios where novel object instances are continuously introduced, especially with heavy occlusions. In this work, we propose a few-shot pose estimation (FSPE) approach called SA6D, which uses a self-adaptive segmentation module to identify the novel target object and construct a point cloud model of the target object using only a small number of cluttered reference images. Unlike existing methods, SA6D does not require object-centric reference images or any additional object information, making it a more generalizable and scalable solution across categories. We evaluate SA6D on real-world tabletop object datasets and demonstrate that SA6D outperforms existing FSPE methods, particularly in cluttered scenes with occlusions, while requiring fewer reference images.

arxiv情報

著者 Ning Gao,Ngo Anh Vien,Hanna Ziesche,Gerhard Neumann
発行日 2023-08-31 08:19:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.RO パーマリンク