You Only Need Two Detectors to Achieve Multi-Modal 3D Multi-Object Tracking

要約

タイトル:マルチモーダル3Dマルチオブジェクトトラッキングを達成するには2つのディテクターしか必要ない

要約:

– マルチモーダル融合に基づく新しいマルチオブジェクトトラッキングフレームワークが提案される
– このフレームワークでは、オブジェクト検出とマルチオブジェクトトラッキングを同じモデルに統合することで、クラシックなTBDパラダイムでの複雑なデータ関連付けプロセスを回避し、追加のトレーニングを必要としない。
– また、過去の軌跡回帰の信頼度を探索し、現在のフレームの軌跡の可能な状態(弱いオブジェクトまたは強いオブジェクト)を分析し、信頼度融合モジュールを設計して、順序付けされた関連付けのための軌跡の非最大値抑制を誘導する。
– 最後に、KITTIとWaymoのデータセットで広範な実験が行われた。結果として、提案された方法は2つのモダリティディテクターのみを使用して堅牢なトラッキングを実現することができ、多くの最新のTBDパラダイムベースのマルチモーダルトラッキング方法よりも正確であることが示された。提案された方法のソースコードはhttps://github.com/wangxiyang2022/YONTD-MOTで入手可能。

要約(オリジナル)

Firstly, a new multi-object tracking framework is proposed in this paper based on multi-modal fusion. By integrating object detection and multi-object tracking into the same model, this framework avoids the complex data association process in the classical TBD paradigm, and requires no additional training. Secondly, confidence of historical trajectory regression is explored, possible states of a trajectory in the current frame (weak object or strong object) are analyzed and a confidence fusion module is designed to guide non-maximum suppression of trajectory and detection for ordered association. Finally, extensive experiments are conducted on the KITTI and Waymo datasets. The results show that the proposed method can achieve robust tracking by using only two modal detectors and it is more accurate than many of the latest TBD paradigm-based multi-modal tracking methods. The source codes of the proposed method are available at https://github.com/wangxiyang2022/YONTD-MOT

arxiv情報

著者 Xiyang Wang,Jiawei He,Chunyun Fu,Ting Meng,Mingguang Huang
発行日 2023-04-18 02:45:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク