Finer-Grained Correlations: Location Priors for Unseen Object Pose Estimation

要約

以前に見えなかったオブジェクトの 6D ポーズ推定のためのオブジェクトの場所の優先順位を提供する新しい方法を提示します。
既存のアプローチは、テンプレート マッチング戦略に基づいて構築され、クエリを使用して一連の参照画像を畳み込みます。
残念ながら、それらのパフォーマンスは、参照とクエリの間のオブジェクト スケールの不一致によって影響を受けます。
この問題に対処するために、調整可能な受容野との相関を計算することにより、オブジェクトのスケールの不一致を処理する、よりきめ細かい相関推定モジュールを提示します。
また、相関関係をスケールロバスト表現とスケール対応表現に分離して、オブジェクトの位置とサイズをそれぞれ推定することも提案します。
私たちの方法は、LINEMOD と GenMOP で最先端の見えないオブジェクトのローカリゼーションと 6D 姿勢推定の結果を達成します。
さらに、挑戦的な合成データセットを構築します。結果は、さまざまな背景、照明、オブジェクト サイズ、および参照クエリ ドメイン ギャップに対するこの方法の優れた堅牢性を強調しています。

要約(オリジナル)

We present a new method which provides object location priors for previously unseen object 6D pose estimation. Existing approaches build upon a template matching strategy and convolve a set of reference images with the query. Unfortunately, their performance is affected by the object scale mismatches between the references and the query. To address this issue, we present a finer-grained correlation estimation module, which handles the object scale mismatches by computing correlations with adjustable receptive fields. We also propose to decouple the correlations into scale-robust and scale-aware representations to estimate the object location and size, respectively. Our method achieves state-of-the-art unseen object localization and 6D pose estimation results on LINEMOD and GenMOP. We further construct a challenging synthetic dataset, where the results highlight the better robustness of our method to varying backgrounds, illuminations, and object sizes, as well as to the reference-query domain gap.

arxiv情報

著者 Chen Zhao,Yinlin Hu,Mathieu Salzmann
発行日 2022-11-29 15:21:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク