MCTrack: A Unified 3D Multi-Object Tracking Framework for Autonomous Driving

要約

このペーパーでは、KITTI、nuScenes、Waymo データセット全体で最先端 (SOTA) パフォーマンスを実現する新しい 3D マルチオブジェクト追跡手法である MCTrack を紹介します。
既存の追跡パラダイムのギャップに対処するため、MCTrack は統合されたソリューションを提供します。これらのパラダイムは特定のデータセットではうまく機能することが多いですが、汎用性に欠けています。
さらに、BaseVersion と呼ばれるさまざまなデータセットにわたる知覚結果の形式を標準化し、マルチオブジェクト追跡 (MOT) 分野の研究者がデータ前処理の過度の負担を負うことなくコアのアルゴリズム開発に集中できるようにしました。
最後に、現在の評価指標の限界を認識して、下流のタスクにとって重要な速度や加速度などの運動情報出力を評価する新しいセットを提案します。
提案された手法のソース コードは、次のリンクから入手できます: https://github.com/megvii-research/MCTrack}{https://github.com/megvii-research/MCTrack

要約(オリジナル)

This paper introduces MCTrack, a new 3D multi-object tracking method that achieves state-of-the-art (SOTA) performance across KITTI, nuScenes, and Waymo datasets. Addressing the gap in existing tracking paradigms, which often perform well on specific datasets but lack generalizability, MCTrack offers a unified solution. Additionally, we have standardized the format of perceptual results across various datasets, termed BaseVersion, facilitating researchers in the field of multi-object tracking (MOT) to concentrate on the core algorithmic development without the undue burden of data preprocessing. Finally, recognizing the limitations of current evaluation metrics, we propose a novel set that assesses motion information output, such as velocity and acceleration, crucial for downstream tasks. The source codes of the proposed method are available at this link: https://github.com/megvii-research/MCTrack}{https://github.com/megvii-research/MCTrack

arxiv情報

著者 Xiyang Wang,Shouzheng Qi,Jieyou Zhao,Hangning Zhou,Siyu Zhang,Guoan Wang,Kai Tu,Songlin Guo,Jianbo Zhao,Jian Li,Mu Yang
発行日 2024-10-14 16:00:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク