要約
単眼3Dオブジェクト検出は、自動運転にとって非常に重要ですが、依然として困難です。
中心的な課題は、明示的な深度情報がない場合にオブジェクトの距離を予測することです。
ほとんどの既存の方法で距離を単一の変数として回帰するのとは異なり、その要因によって距離を回復するための新しいジオメトリベースの距離分解を提案します。
分解は、オブジェクトの距離を最も代表的で安定した変数、つまり物理的な高さと画像平面に投影された視覚的な高さに因数分解します。
さらに、分解により2つの高さの間の自己整合性が維持されるため、両方の予測された高さが不正確な場合に、ロバストな距離予測が可能になります。
分解により、さまざまなシナリオの距離の不確実性の原因を追跡することもできます。
このような分解により、距離予測が解釈可能で、正確で、堅牢になります。
私たちの方法は、コンパクトなアーキテクチャでRGB画像から3Dバウンディングボックスを直接予測し、トレーニングと推論をシンプルかつ効率的にします。
実験結果は、私たちの方法がKITTIデータセットの単眼3Dオブジェクト検出およびバーズアイビュータスクで最先端のパフォーマンスを達成し、さまざまなカメラ固有の画像に一般化できることを示しています。
要約(オリジナル)
Monocular 3D object detection is of great significance for autonomous driving but remains challenging. The core challenge is to predict the distance of objects in the absence of explicit depth information. Unlike regressing the distance as a single variable in most existing methods, we propose a novel geometry-based distance decomposition to recover the distance by its factors. The decomposition factors the distance of objects into the most representative and stable variables, i.e. the physical height and the projected visual height in the image plane. Moreover, the decomposition maintains the self-consistency between the two heights, leading to robust distance prediction when both predicted heights are inaccurate. The decomposition also enables us to trace the causes of the distance uncertainty for different scenarios. Such decomposition makes the distance prediction interpretable, accurate, and robust. Our method directly predicts 3D bounding boxes from RGB images with a compact architecture, making the training and inference simple and efficient. The experimental results show that our method achieves the state-of-the-art performance on the monocular 3D Object Detection and Birds Eye View tasks of the KITTI dataset, and can generalize to images with different camera intrinsics.
arxiv情報
著者 | Xuepeng Shi,Qi Ye,Xiaozhi Chen,Chuangrong Chen,Zhixiang Chen,Tae-Kyun Kim |
発行日 | 2022-06-29 10:10:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google