For A More Comprehensive Evaluation of 6DoF Object Pose Tracking

要約

6DoF オブジェクトの姿勢追跡に関するこれまでの評価では、この分野の発展に伴い明らかな限界が明らかになりました。
特に、評価プロトコルはさまざまな方法で統一されておらず、広く使用されている YCBV データセットには重大なアノテーション エラーが含まれており、エラー メトリクスにも偏りがある可能性があります。
その結果、手法を公平に比較​​することが困難となり、新しいアルゴリズムを開発する際の大きな障害となっています。
このペーパーでは、上記の問題に対処するための統一ベンチマークを提供します。
YCBV のより正確なアノテーションを実現するために、すべてのオブジェクトとビュー カメラのポーズを共同で調整できるマルチビュー マルチオブジェクト グローバル ポーズ調整方法を提案します。その結果、サブピクセル、サブミリメートルの位置合わせ誤差が生じます。
以前のスコアリング方法とエラーメトリクスの限界が分析され、それに基づいて改善された評価方法が導入されます。
統合ベンチマークは、YCBV と BCOT の両方をベース データセットとして採用しており、これらはシーン カテゴリにおいて補完的であることが示されています。
実験では、特に YCBV の現実的な半合成データセットを使用して、提案されたグローバル ポーズ調整手法の精度と信頼性を検証し、学習と非学習および RGB&RGBD 手法を統合するベンチマーク結果を、以前の研究では発見されていないいくつかの発見とともに提示します。

要約(オリジナル)

Previous evaluations on 6DoF object pose tracking have presented obvious limitations along with the development of this area. In particular, the evaluation protocols are not unified for different methods, the widely-used YCBV dataset contains significant annotation error, and the error metrics also may be biased. As a result, it is hard to fairly compare the methods, which has became a big obstacle for developing new algorithms. In this paper we contribute a unified benchmark to address the above problems. For more accurate annotation of YCBV, we propose a multi-view multi-object global pose refinement method, which can jointly refine the poses of all objects and view cameras, resulting in sub-pixel sub-millimeter alignment errors. The limitations of previous scoring methods and error metrics are analyzed, based on which we introduce our improved evaluation methods. The unified benchmark takes both YCBV and BCOT as base datasets, which are shown to be complementary in scene categories. In experiments, we validate the precision and reliability of the proposed global pose refinement method with a realistic semi-synthesized dataset particularly for YCBV, and then present the benchmark results unifying learning&non-learning and RGB&RGBD methods, with some finds not discovered in previous studies.

arxiv情報

著者 Yang Li,Fan Zhong,Xin Wang,Shuangbing Song,Jiachen Li,Xueying Qin,Changhe Tu
発行日 2023-09-14 15:35:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク