要約
3D マルチオブジェクト トラッキング (MOT) は、3D オブジェクト検出と 2D MOT の急速な発展のおかげで、大きな成果を達成しました。
最近の高度な作業では、一般に、位置、サイズ、速度、外観などの一連のオブジェクト属性を使用して、3D MOT の関連付けの手がかりを提供しています。
ただし、これらの手がかりは、オクルージョンやブラーなどの視覚的なノイズが原因で信頼できない場合があり、追跡パフォーマンスのボトルネックにつながります。
ジレンマを明らかにするために、広範な実証分析を実施して、各手がかりの主要なボトルネックと、それらが互いにどのように相関しているかを明らかにします。
分析結果は、すべての手がかりのメリットを効率的に吸収し、最適なタック方法を適応的に生成するように動機付けます。
具体的には、予測されたオブジェクト属性の品質を推定するようにネットワークを効率的に導く、場所と速度の品質学習を紹介します。
これらの品質推定に基づいて、堅牢な関連付けを実現するための重要な参照要素として品質スコアを活用するための品質認識オブジェクト関連付け (QOA) 戦略を提案します。
その単純さにもかかわらず、大規模な実験は、提案された戦略が追跡パフォーマンスを2.2%AMOTAで大幅に向上させ、私たちの方法がnuScenesでの既存のすべての最先端の作品を大幅に上回ることを示しています.
さらに、QTrack は nuScenes 検証およびテスト セットで 48.0% および 51.1% の AMOTA トラッキング パフォーマンスを達成し、純粋なカメラと LiDAR ベースのトラッカーの間のパフォーマンス ギャップを大幅に削減します。
要約(オリジナル)
3D Multi-Object Tracking (MOT) has achieved tremendous achievement thanks to the rapid development of 3D object detection and 2D MOT. Recent advanced works generally employ a series of object attributes, e.g., position, size, velocity, and appearance, to provide the clues for the association in 3D MOT. However, these cues may not be reliable due to some visual noise, such as occlusion and blur, leading to tracking performance bottleneck. To reveal the dilemma, we conduct extensive empirical analysis to expose the key bottleneck of each clue and how they correlate with each other. The analysis results motivate us to efficiently absorb the merits among all cues, and adaptively produce an optimal tacking manner. Specifically, we present Location and Velocity Quality Learning, which efficiently guides the network to estimate the quality of predicted object attributes. Based on these quality estimations, we propose a quality-aware object association (QOA) strategy to leverage the quality score as an important reference factor for achieving robust association. Despite its simplicity, extensive experiments indicate that the proposed strategy significantly boosts tracking performance by 2.2% AMOTA and our method outperforms all existing state-of-the-art works on nuScenes by a large margin. Moreover, QTrack achieves 48.0% and 51.1% AMOTA tracking performance on the nuScenes validation and test sets, which significantly reduces the performance gap between pure camera and LiDAR based trackers.
arxiv情報
著者 | Jinrong Yang,En Yu,Zeming Li,Xiaoping Li,Wenbing Tao |
発行日 | 2022-08-23 13:47:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google