要約
Perspective-n-Point (PnP) 問題は文献で広く研究されており、さまざまな視覚ベースの姿勢推定シナリオに適用されています。
ただし、この論文のいくつかの実世界のデータセットで実証されているように、既存の方法では観測の異方性の不確実性が無視されています。
この見落としは、特にノイズの多い観測が存在する場合に、最適ではない不正確な推定につながる可能性があります。
この目的を達成するために、GLS 手順を反復して姿勢と不確実性を同時に推定することで決定基準を最小化する、GMLPnP という名前の一般化最尤 PnP ソルバーを提案します。
さらに、提案された方法はカメラモデルから切り離されています。
合成実験と実際の実験の結果は、私たちの方法が一般的な姿勢推定シナリオでより高い精度を達成し、GMLPnP は最良のものと比較して、TUM-RGBD で 4.7%/2.0%、KITTI-360 データセットで 18.6%/18.4% 回転/平行移動精度を向上させることを示しています。
ベースライン。
これは、視覚ベースの UAV 位置特定タスクにおける非常にノイズの多い観測下でより正確であり、変換推定精度において最良のベースラインを 34.4% 上回っています。
要約(オリジナル)
The Perspective-n-Point (PnP) problem has been widely studied in the literature and applied in various vision-based pose estimation scenarios. However, existing methods ignore the anisotropy uncertainty of observations, as demonstrated in several real-world datasets in this paper. This oversight may lead to suboptimal and inaccurate estimation, particularly in the presence of noisy observations. To this end, we propose a generalized maximum likelihood PnP solver, named GMLPnP, that minimizes the determinant criterion by iterating the GLS procedure to estimate the pose and uncertainty simultaneously. Further, the proposed method is decoupled from the camera model. Results of synthetic and real experiments show that our method achieves better accuracy in common pose estimation scenarios, GMLPnP improves rotation/translation accuracy by 4.7%/2.0% on TUM-RGBD and 18.6%/18.4% on KITTI-360 dataset compared to the best baseline. It is more accurate under very noisy observations in a vision-based UAV localization task, outperforming the best baseline by 34.4% in translation estimation accuracy.
arxiv情報
著者 | Tian Zhan,Chunfeng Xu,Cheng Zhang,Ke Zhu |
発行日 | 2024-08-04 07:06:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google