LocPoseNet: Robust Location Prior for Unseen Object Pose Estimation

要約

オブジェクトの位置の事前分布は、トレーニング オブジェクトとテスト オブジェクトが同じである標準的な 6D オブジェクトの姿勢推定設定にとって重要であることが示されています。
具体的には、3D オブジェクトの移動を初期化し、3D オブジェクトの回転推定を容易にするために使用できます。
残念ながら、この目的で使用されるオブジェクト検出器は、目に見えないオブジェクト、つまりテスト時に新しいカテゴリからのオブジェクトに一般化されません。
したがって、以前に見えなかったオブジェクトに対する既存の 6D ポーズ推定方法は、グラウンド トゥルース オブジェクトの位置が既知であると仮定するか、それが利用できない場合に不正確な結果をもたらします。
この論文では、目に見えないオブジェクトの位置を事前に確実に学習できる方法である LocPoseNet を開発することにより、この問題に対処します。
私たちの方法は、テンプレートマッチング戦略に基づいて構築されており、参照カーネルを分散させ、それらをクエリで畳み込んでマルチスケール相関を効率的に計算することを提案しています。
次に、スケール対応機能とスケールロバスト機能を分離して、さまざまなオブジェクトの位置パラメーターを予測する、新しい変換推定器を紹介します。
私たちの方法は、LINEMOD と GenMOP で既存の作品よりも大幅に優れています。
さらに、挑戦的な合成データセットを構築します。これにより、さまざまなノイズ源に対するこの方法の優れた堅牢性を強調できます。

要約(オリジナル)

Object location priors have been shown to be critical for the standard 6D object pose estimation setting, where the training and testing objects are the same. Specifically, they can be used to initialize the 3D object translation and facilitate 3D object rotation estimation. Unfortunately, the object detectors that are used for this purpose do not generalize to unseen objects, i.e., objects from new categories at test time. Therefore, existing 6D pose estimation methods for previously-unseen objects either assume the ground-truth object location to be known, or yield inaccurate results when it is unavailable. In this paper, we address this problem by developing a method, LocPoseNet, able to robustly learn location prior for unseen objects. Our method builds upon a template matching strategy, where we propose to distribute the reference kernels and convolve them with a query to efficiently compute multi-scale correlations. We then introduce a novel translation estimator, which decouples scale-aware and scale-robust features to predict different object location parameters. Our method outperforms existing works by a large margin on LINEMOD and GenMOP. We further construct a challenging synthetic dataset, which allows us to highlight the better robustness of our method to various noise sources.

arxiv情報

著者 Chen Zhao,Yinlin Hu,Mathieu Salzmann
発行日 2023-03-10 10:22:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク