BEVTrack: A Simple and Strong Baseline for 3D Single Object Tracking in Bird’s-Eye View

要約

3D 単一オブジェクト追跡 (SOT) はコンピューター ビジョンの基本的なタスクであり、自動運転などのアプリケーションに不可欠であることが証明されています。
外観の変化、注意をそらすもの、および点群の密度が高いため、周囲からターゲットの位置を特定することは依然として困難です。
連続したフレームにわたるオブジェクトの空間的隣接性を示す空間情報は、効果的なオブジェクト追跡にとって重要です。
ただし、既存のトラッカーは通常、不規則な形式のポイント単位の表現を採用しているため、この重要な空間知識が十分に活用されません。
その結果、これらのトラッカーは通常、精巧な設計と複数のサブタスクの解決を必要とします。
この論文では、Bird’s-Eye View (BEV) で追跡を実行するシンプルかつ効果的なベースラインである BEVTrack を提案します。
この表現は、その順序付けられた構造により空間情報を大幅に保持し、ターゲットおよびディストラクターの暗黙の運動関係を本質的にエンコードします。
多様な属性 (\textit{例}、サイズ、動きパターン) を持つターゲットに対して正確な回帰を達成するために、BEVTrack は、以前の研究のように固定のラプラスまたはガウスの仮定を行うのではなく、さまざまなターゲットに適応した学習された基礎となる分布を使用して尤度関数を構築します。

これにより、追跡に貴重な事前情報が提供され、パフォーマンスがさらに向上します。
BEVTrack は、単純な畳み込みアーキテクチャで単一の回帰損失のみを使用しながら、約 200 FPS の高い推論速度を維持しながら、KITTI、NuScenes、Waymo Open Dataset の 3 つの大規模データセットで最先端のパフォーマンスを実現します。
コードは https://github.com/xmm-prio/BEVTrack でリリースされます。

要約(オリジナル)

3D Single Object Tracking (SOT) is a fundamental task of computer vision, proving essential for applications like autonomous driving. It remains challenging to localize the target from surroundings due to appearance variations, distractors, and the high sparsity of point clouds. The spatial information indicating objects’ spatial adjacency across consecutive frames is crucial for effective object tracking. However, existing trackers typically employ point-wise representation with irregular formats, leading to insufficient use of this important spatial knowledge. As a result, these trackers usually require elaborate designs and solving multiple subtasks. In this paper, we propose BEVTrack, a simple yet effective baseline that performs tracking in Bird’s-Eye View (BEV). This representation greatly retains spatial information owing to its ordered structure and inherently encodes the implicit motion relations of the target as well as distractors. To achieve accurate regression for targets with diverse attributes (\textit{e.g.}, sizes and motion patterns), BEVTrack constructs the likelihood function with the learned underlying distributions adapted to different targets, rather than making a fixed Laplace or Gaussian assumption as in previous works. This provides valuable priors for tracking and thus further boosts performance. While only using a single regression loss with a plain convolutional architecture, BEVTrack achieves state-of-the-art performance on three large-scale datasets, KITTI, NuScenes, and Waymo Open Dataset while maintaining a high inference speed of about 200 FPS. The code will be released at https://github.com/xmm-prio/BEVTrack.

arxiv情報

著者 Yuxiang Yang,Yingqi Deng,Jing Zhang,Jiahao Nie,Zheng-Jun Zha
発行日 2023-11-22 13:56:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク