LocPoseNet: Robust Location Prior for Unseen Object Pose Estimation

要約

標準の 6D オブジェクトの姿勢推定設定では、事前にオブジェクトの位置を特定することが重要です。
事前の方法を使用して、3D オブジェクトの変換を初期化し、3D オブジェクトの回転推定を容易にすることができます。
残念ながら、この目的で使用される物体検出器は、目に見えない物体には一般化されません。
したがって、目に見えないオブジェクトに対する既存の 6D 姿勢推定方法は、グラウンドトゥルースのオブジェクトの位置が既知であると仮定するか、それが利用できない場合に不正確な結果を生成します。
この論文では、目に見えないオブジェクトの位置を事前に確実に学習できるメソッド LocPoseNet を開発することで、この問題に対処します。
私たちの方法は、テンプレート マッチング戦略に基づいて構築されており、参照カーネルを分散し、それらをクエリと畳み込み、マルチスケール相関を効率的に計算することを提案します。
次に、スケールを意識した特徴とスケールに強い特徴を分離して、さまざまな物体位置パラメータを予測する新しい変換推定器を導入します。
私たちの方法は、LINEMOD と GenMOP において既存の研究を大幅に上回ります。
さらに、挑戦的な合成データセットを構築することで、さまざまなノイズ源に対するメソッドの堅牢性が向上していることを強調できます。
私たちのプロジェクトの Web サイトは、https://sailor-z.github.io/projects/3DV2024_LocPoseNet.html です。

要約(オリジナル)

Object location prior is critical for the standard 6D object pose estimation setting. The prior can be used to initialize the 3D object translation and facilitate 3D object rotation estimation. Unfortunately, the object detectors that are used for this purpose do not generalize to unseen objects. Therefore, existing 6D pose estimation methods for unseen objects either assume the ground-truth object location to be known or yield inaccurate results when it is unavailable. In this paper, we address this problem by developing a method, LocPoseNet, able to robustly learn location prior for unseen objects. Our method builds upon a template matching strategy, where we propose to distribute the reference kernels and convolve them with a query to efficiently compute multi-scale correlations. We then introduce a novel translation estimator, which decouples scale-aware and scale-robust features to predict different object location parameters. Our method outperforms existing works by a large margin on LINEMOD and GenMOP. We further construct a challenging synthetic dataset, which allows us to highlight the better robustness of our method to various noise sources. Our project website is at: https://sailor-z.github.io/projects/3DV2024_LocPoseNet.html.

arxiv情報

著者 Chen Zhao,Yinlin Hu,Mathieu Salzmann
発行日 2024-02-06 14:14:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク