要約
永続的なマルチオブジェクト トラッキング (MOT) により、自動運転車は非常に動的な環境で安全に移動できます。
MOT でよく知られている課題の 1 つは、オブジェクトが後続のフレームで観測できなくなった場合のオブジェクト オクルージョンです。
現在の MOT メソッドは、オクルージョン後にオブジェクトを復元するために、オブジェクトの軌跡などのオブジェクト情報を内部メモリに保存します。
ただし、それらは短期記憶を保持して計算時間を節約し、MOT メソッドの速度低下を回避します。
その結果、一部のオクルージョン シナリオ、特に長いシナリオでは、オブジェクトを追跡できなくなります。
この論文では、DFR-FastMOT を提案します。これは、カメラと LiDAR センサーからのデータを使用し、オブジェクトの関連付けと融合のための代数定式化に依存するライト MOT メソッドです。
この定式化により、計算時間が向上し、より多くのオクルージョン シナリオに取り組む長期記憶が可能になります。
私たちの方法は、最近の学習ベンチマークと非学習ベンチマークで、MOTA でそれぞれ約 3% と 4% のマージンを持つ優れた追跡パフォーマンスを示しています。
また、さまざまな歪みレベルの検出器を使用して、閉塞現象をシミュレートする広範な実験を行っています。
提案されたソリューションは、現在の最先端の方法を超える検出において、さまざまな歪みレベルの下で優れたパフォーマンスを可能にします。
私たちのフレームワークは、1.48 秒で約 7,763 フレームを処理します。これは、最近のベンチマークよりも 7 倍高速です。
このフレームワークは、https://github.com/MohamedNagyMostafa/DFR-FastMOT で入手できます。
要約(オリジナル)
Persistent multi-object tracking (MOT) allows autonomous vehicles to navigate safely in highly dynamic environments. One of the well-known challenges in MOT is object occlusion when an object becomes unobservant for subsequent frames. The current MOT methods store objects information, like objects’ trajectory, in internal memory to recover the objects after occlusions. However, they retain short-term memory to save computational time and avoid slowing down the MOT method. As a result, they lose track of objects in some occlusion scenarios, particularly long ones. In this paper, we propose DFR-FastMOT, a light MOT method that uses data from a camera and LiDAR sensors and relies on an algebraic formulation for object association and fusion. The formulation boosts the computational time and permits long-term memory that tackles more occlusion scenarios. Our method shows outstanding tracking performance over recent learning and non-learning benchmarks with about 3% and 4% margin in MOTA, respectively. Also, we conduct extensive experiments that simulate occlusion phenomena by employing detectors with various distortion levels. The proposed solution enables superior performance under various distortion levels in detection over current state-of-art methods. Our framework processes about 7,763 frames in 1.48 seconds, which is seven times faster than recent benchmarks. The framework will be available at https://github.com/MohamedNagyMostafa/DFR-FastMOT.
arxiv情報
著者 | Mohamed Nagy,Majid Khonji,Jorge Dias,Sajid Javed |
発行日 | 2023-02-28 17:57:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google