Learning Better Keypoints for Multi-Object 6DoF Pose Estimation

要約

私たちは姿勢推定に対する事前定義されたキーポイントの影響を調査し、同様に分散された投票を持つ分散キーポイントのセットを選択するようにグラフ ネットワークをトレーニングすることで精度と効率を向上できることがわかりました。
これらの投票は、キーポイントの位置の証拠を蓄積するために回帰ネットワークによって学習され、以前のヒューリスティック キーポイント アルゴリズムと比較してより正確に回帰できます。
提案された KeyGNet は、ワッサーシュタイン距離と分散の両方を測定する複合損失によって管理され、ターゲット オブジェクトの色と幾何学的特徴を学習して、最適なキーポイントの位置を推定します。
実験では、KeyGNet によって選択されたキーポイントにより、3 つのキーポイント投票方法について、テストされた 7 つのデータセットすべてのすべての評価メトリクスの精度が向上することが実証されました。
困難なオクルージョン LINEMOD データセットでは、PVN3D で ADD(S) が +16.4% 改善され、すべてのコア BOP データセットでは、すべてのオブジェクトに対して +1% ~ +21.5% の AR 改善が示されました。
また、KeyGNet キーポイントを使用して単一オブジェクトから複数オブジェクトのトレーニングに移行する際のパフォーマンスも顕著に向上し、オクルージョン LINEMOD の SISO-MIMO ギャップが本質的に解消されました。

要約(オリジナル)

We investigate the impact of pre-defined keypoints for pose estimation, and found that accuracy and efficiency can be improved by training a graph network to select a set of disperse keypoints with similarly distributed votes. These votes, learned by a regression network to accumulate evidence for the keypoint locations, can be regressed more accurately compared to previous heuristic keypoint algorithms. The proposed KeyGNet, supervised by a combined loss measuring both Wassserstein distance and dispersion, learns the color and geometry features of the target objects to estimate optimal keypoint locations. Experiments demonstrate the keypoints selected by KeyGNet improved the accuracy for all evaluation metrics of all seven datasets tested, for three keypoint voting methods. The challenging Occlusion LINEMOD dataset notably improved ADD(S) by +16.4% on PVN3D, and all core BOP datasets showed an AR improvement for all objects, of between +1% and +21.5%. There was also a notable increase in performance when transitioning from single object to multiple object training using KeyGNet keypoints, essentially eliminating the SISO-MIMO gap for Occlusion LINEMOD.

arxiv情報

著者 Yangzheng Wu,Michael Greenspan
発行日 2023-08-15 15:11:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク