要約
単眼画像からオブジェクトの正確な 3D 位置を推定することは、奥行きがないため困難な問題です。
以前の研究では、オブジェクトのキーポイント射影制約を利用して複数の深度候補を推定すると、検出パフォーマンスが向上することが示されています。
ただし、既存の方法では、深度推定の投影制約として垂直エッジしか利用できません。
そのため、これらの方法は少数の射影制約のみを使用し、不十分な深度候補を生成するため、不正確な深度推定につながります。
本稿では、任意の方向のエッジからの密な射影制約を利用する方法を提案します。
このようにして、より多くの投影制約を採用し、かなりの深度候補を生成します。
さらに、深度候補をマージするためのグラフ マッチング重み付けモジュールを提示します。
提案された方法 DCD (Densely Constrained Detector) は、KITTI および WOD ベンチマークで最先端のパフォーマンスを達成します。
コードは https://github.com/BraveGroup/DCD で公開されています。
要約(オリジナル)
Estimating accurate 3D locations of objects from monocular images is a challenging problem because of lacking depth. Previous work shows that utilizing the object’s keypoint projection constraints to estimate multiple depth candidates boosts the detection performance. However, the existing methods can only utilize vertical edges as projection constraints for depth estimation. So these methods only use a small number of projection constraints and produce insufficient depth candidates, leading to inaccurate depth estimation. In this paper, we propose a method that utilizes dense projection constraints from edges of any direction. In this way, we employ much more projection constraints and produce considerable depth candidates. Besides, we present a graph matching weighting module to merge the depth candidates. The proposed method DCD (Densely Constrained Detector) achieves state-of-the-art performance on the KITTI and WOD benchmarks. Code is released at https://github.com/BraveGroup/DCD.
arxiv情報
著者 | Yingyan Li,Yuntao Chen,Jiawei He,Zhaoxiang Zhang |
発行日 | 2022-09-27 11:01:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google