要約
単眼画像からオブジェクトの正確な3D位置を推定することは、奥行きが不足しているため、困難な問題です。
以前の研究では、オブジェクトのキーポイント投影制約を利用して複数の深度候補を推定すると、検出パフォーマンスが向上することが示されています。
ただし、既存の方法では、深度推定の投影制約として垂直エッジのみを利用できます。
したがって、これらの方法は少数の投影制約のみを使用し、不十分な深度候補を生成し、不正確な深度推定につながります。
本論文では、任意の方向のエッジからの密な投影制約を利用する方法を提案した。
このようにして、はるかに多くの投影制約を採用し、かなりの深さの候補を生成します。
さらに、深度候補をマージするためのグラフマッチング重み付けモジュールを示します。
提案された方法DCD(Densely Constrained Detector)は、KITTIおよびWODベンチマークで最先端のパフォーマンスを実現します。
コードはhttps://github.com/BraveGroup/DCDでリリースされています。
要約(オリジナル)
Estimating accurate 3D locations of objects from monocular images is a challenging problem because of lacking depth. Previous work shows that utilizing the object’s keypoint projection constraints to estimate multiple depth candidates boosts the detection performance. However, the existing methods can only utilize vertical edges as projection constraints for depth estimation. So these methods only use a small number of projection constraints and produce insufficient depth candidates, leading to inaccurate depth estimation. In this paper, we propose a method that utilizes dense projection constraints from edges of any direction. In this way, we employ much more projection constraints and produce considerable depth candidates. Besides, we present a graph matching weighting module to merge the depth candidates. The proposed method DCD (Densely Constrained Detector) achieves state-of-the-art performance on the KITTI and WOD benchmarks. Code is released at https://github.com/BraveGroup/DCD.
arxiv情報
著者 | Yingyan Li,Yuntao Chen,Jiawei He,Zhaoxiang Zhang |
発行日 | 2022-07-21 12:52:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google