Motion State: A New Benchmark Multiple Object Tracking

要約

ビデオ分析の分野では、複数オブジェクト追跡 (MOT) の分野が最も重要視されており、地面に対して静的か動的かにかかわらず、オブジェクトの運動状態がさまざまなシナリオにわたって実際的な重要性を保持します。
しかし、現存する文献では、この側面の探求が著しく不足していることが示されています。
深層学習手法では、物体の運動状態を正確に識別するという課題に直面しますが、包括的な数学的モデリングに依存する従来のアプローチでは、最適ではない追跡精度が得られる可能性があります。
これらの課題に対処するために、モデルデータ駆動型運動状態判断オブジェクト追跡手法 (MoD2T) を導入します。
この革新的なアーキテクチャは、従来の数学モデリングと深層学習ベースのマルチオブジェクト追跡フレームワークを巧みに融合させています。
MoD2T 内での数学的モデリングと深層学習の統合により、オブジェクトの運動状態の判定の精度が向上し、それによって追跡精度が向上します。
私たちの実証調査では、無人航空機の監視や街頭レベルの追跡を含む、さまざまなシナリオにわたる MoD2T の有効性を包括的に検証しています。
さらに、オブジェクトの運動状態を識別する方法の熟練度を評価するために、運動状態検証 F1 (MVF1) メトリックを導入します。
この新しいパフォーマンス指標は、運動状態分類の精度を定量的に評価し、MoD2T のパフォーマンスの包括的な評価を提供することを目的としています。
綿密な実験検証により、MVF1 の合理性が裏付けられています。
MoD2T のパフォーマンスを総合的に評価するために、私たちはいくつかの有名なデータセットに細心の注意を払って注釈を付け、MoD2T に厳格なテストを実施します。
注目すべきことに、カメラの動きが最小限または中程度であるという条件下では、達成された MVF1 値は特に注目に値します。例としては、KITTI データセットの 0.774、MOT17 の 0.521、UAVDT の 0.827 などが挙げられます。

要約(オリジナル)

In the realm of video analysis, the field of multiple object tracking (MOT) assumes paramount importance, with the motion state of objects-whether static or dynamic relative to the ground-holding practical significance across diverse scenarios. However, the extant literature exhibits a notable dearth in the exploration of this aspect. Deep learning methodologies encounter challenges in accurately discerning object motion states, while conventional approaches reliant on comprehensive mathematical modeling may yield suboptimal tracking accuracy. To address these challenges, we introduce a Model-Data-Driven Motion State Judgment Object Tracking Method (MoD2T). This innovative architecture adeptly amalgamates traditional mathematical modeling with deep learning-based multi-object tracking frameworks. The integration of mathematical modeling and deep learning within MoD2T enhances the precision of object motion state determination, thereby elevating tracking accuracy. Our empirical investigations comprehensively validate the efficacy of MoD2T across varied scenarios, encompassing unmanned aerial vehicle surveillance and street-level tracking. Furthermore, to gauge the method’s adeptness in discerning object motion states, we introduce the Motion State Validation F1 (MVF1) metric. This novel performance metric aims to quantitatively assess the accuracy of motion state classification, furnishing a comprehensive evaluation of MoD2T’s performance. Elaborate experimental validations corroborate the rationality of MVF1. In order to holistically appraise MoD2T’s performance, we meticulously annotate several renowned datasets and subject MoD2T to stringent testing. Remarkably, under conditions characterized by minimal or moderate camera motion, the achieved MVF1 values are particularly noteworthy, with exemplars including 0.774 for the KITTI dataset, 0.521 for MOT17, and 0.827 for UAVDT.

arxiv情報

著者 Yang Feng,Liao Pan,Wu Di,Liu Bo,Zhang Xingle
発行日 2024-05-07 13:42:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク