MoD2T:Model-Data-Driven Motion-Static Object Tracking Method

要約

マルチオブジェクト追跡 (MOT) の領域は、ビデオ分析の分野で最も重要です。
ただし、この分野における従来の方法論と深層学習ベースのアプローチにはどちらも固有の限界があります。
データのみによって駆動される深層学習手法では、物体の運動状態を正確に識別することが困難ですが、包括的な数学モデルに依存する従来の手法では、追跡精度が最適ではない可能性があります。
これらの課題に対処するために、モデルデータ駆動型モーション静的オブジェクト追跡手法 (MoD2T) を導入します。
私たちは、従来の数学モデリングと深層学習ベースの MOT フレームワークを適切に融合する新しいアーキテクチャを提案します。これにより、確立された方法論や高度な深層学習技術への単独依存に伴う制限を効果的に軽減します。
MoD2T の数学的モデリングと深層学習の融合により、オブジェクトの動きの判定の精度が向上し、その結果、追跡精度が向上します。
私たちの実証実験は、UAV の航空監視や街頭レベルの追跡など、さまざまなシナリオにわたって MoD2T の有効性を確実に実証しています。
物体の運動状態を識別する MoD2T の熟練度を評価するために、MVF1 メトリクスを導入します。
この新しいパフォーマンス メトリクスは、運動状態分類の精度を測定するように設計されており、MoD2T のパフォーマンスの包括的な評価を提供します。
綿密な実験により、MVF1 の定式化の背後にある理論的根拠が実証されています。
MoD2T のパフォーマンスの包括的な評価を提供するために、私たちはさまざまなデータセットに細心の注意を払って注釈を付け、MoD2T に厳格なテストを実施します。
動作状態分類の精度を測定する達成された MVF1 スコアは、最小限または軽度のカメラ動作が特徴のシナリオで特に注目に値し、値は KITTI データセットで 0.774、MOT17 で 0.521、UAVDT で 0.827 でした。

要約(オリジナル)

The domain of Multi-Object Tracking (MOT) is of paramount significance within the realm of video analysis. However, both traditional methodologies and deep learning-based approaches within this domain exhibit inherent limitations. Deep learning methods driven exclusively by data exhibit challenges in accurately discerning the motion states of objects, while traditional methods relying on comprehensive mathematical models may suffer from suboptimal tracking precision. To address these challenges, we introduce the Model-Data-Driven Motion-Static Object Tracking Method (MoD2T). We propose a novel architecture that adeptly amalgamates traditional mathematical modeling with deep learning-based MOT frameworks, thereby effectively mitigating the limitations associated with sole reliance on established methodologies or advanced deep learning techniques. MoD2T’s fusion of mathematical modeling and deep learning augments the precision of object motion determination, consequently enhancing tracking accuracy. Our empirical experiments robustly substantiate MoD2T’s efficacy across a diverse array of scenarios, including UAV aerial surveillance and street-level tracking. To assess MoD2T’s proficiency in discerning object motion states, we introduce MVF1 metric. This novel performance metric is designed to measure the accuracy of motion state classification, providing a comprehensive evaluation of MoD2T’s performance. Meticulous experiments substantiate the rationale behind MVF1’s formulation. To provide a comprehensive assessment of MoD2T’s performance, we meticulously annotate diverse datasets and subject MoD2T to rigorous testing. The achieved MVF1 scores, which measure the accuracy of motion state classification, are particularly noteworthy in scenarios marked by minimal or mild camera motion, with values of 0.774 on the KITTI dataset, 0.521 on MOT17, and 0.827 on UAVDT.

arxiv情報

著者 Yang Feng,Liao Pan,Wu Di,Liu Bo,Zhang Xingle
発行日 2023-12-29 15:08:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク