BOP Challenge 2023 on Detection, Segmentation and Pose Estimation of Seen and Unseen Rigid Objects

要約

BOP Challenge 2023 の評価方法、データセット、結果を紹介します。BOP Challenge 2023 は、RGB/RGB-D 画像および関連タスクからのモデルベースの 6D オブジェクト姿勢推定における最先端技術を把握するために組織された一連の公的コンテストの 5 回目です。

2022 年の 3 つのタスク (モデルベースの 2D 検出、2D セグメンテーション、トレーニング中に見られるオブジェクトの 6D 位置特定) に加えて、2023 年のチャレンジでは、トレーニング中に見えないオブジェクトに焦点を当てたこれらのタスクの新しいバリアントが導入されました。
新しいタスクでは、短いオンボーディング段階 (最大 5 分、1 GPU) で、提供された 3D オブジェクト モデルから新しいオブジェクトを学習するメソッドが必要でした。
目に見えないオブジェクトの 6D 位置特定に関する 2023 年の最良の方法 (GenFlow) は、目に見えて遅いものの、目に見えるオブジェクトに関する 2020 年の最良の方法 (CosyPose) の精度に特に達しました。
2023 年の可視オブジェクトに対する最良のメソッド (GPose) は、2022 年の最良のメソッド (GDRNPP) と比較して、精度は中程度向上しましたが、実行時間は 43% 大幅に向上しました。
2017 年以来、見たオブジェクトの 6D 位置特定の精度は 50% 以上向上しました (AR_C が 56.9 から 85.6 に)。
オンライン評価システムは引き続きオープンしており、http://bop.felk.cvut.cz/ から入手できます。

要約(オリジナル)

We present the evaluation methodology, datasets and results of the BOP Challenge 2023, the fifth in a series of public competitions organized to capture the state of the art in model-based 6D object pose estimation from an RGB/RGB-D image and related tasks. Besides the three tasks from 2022 (model-based 2D detection, 2D segmentation, and 6D localization of objects seen during training), the 2023 challenge introduced new variants of these tasks focused on objects unseen during training. In the new tasks, methods were required to learn new objects during a short onboarding stage (max 5 minutes, 1 GPU) from provided 3D object models. The best 2023 method for 6D localization of unseen objects (GenFlow) notably reached the accuracy of the best 2020 method for seen objects (CosyPose), although being noticeably slower. The best 2023 method for seen objects (GPose) achieved a moderate accuracy improvement but a significant 43% run-time improvement compared to the best 2022 counterpart (GDRNPP). Since 2017, the accuracy of 6D localization of seen objects has improved by more than 50% (from 56.9 to 85.6 AR_C). The online evaluation system stays open and is available at: http://bop.felk.cvut.cz/.

arxiv情報

著者 Tomas Hodan,Martin Sundermeyer,Yann Labbe,Van Nguyen Nguyen,Gu Wang,Eric Brachmann,Bertram Drost,Vincent Lepetit,Carsten Rother,Jiri Matas
発行日 2024-04-16 22:03:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク