要約
歩行者、自転車、バイクなどの小さな物体の正確な検出と追跡は、交通監視システムにとって非常に重要であり、交通監視システムは交通安全とインテリジェント交通システムにおける意思決定の向上に不可欠です。
ただし、従来の方法は、オクルージョン、低解像度、動的な交通状況などの課題に直面しており、これらの制限に対処する革新的なアプローチが必要です。
このペーパーでは、交通監視システムにおける微小物体の検出と追跡を強化するために、ダイナミック グラフ ニューラル ネットワーク (DGNN) と YOLO11 を統合する新しいフレームワークである DGNN-YOLO を紹介します。
このフレームワークは、YOLO11 の高度な空間特徴抽出機能を活用して正確な物体検出を行い、DGNN を組み込んで時空間関係をモデル化し、堅牢なリアルタイム追跡を動的に実現します。
DGNN-YOLO は、グラフ構造を構築および更新することにより、オブジェクトをノードとして効果的に表現し、それらの相互作用をエッジとして表現することで、複雑で動的な環境における適応性のある正確な追跡を保証します。
さらに、Grad-CAM、Grad-CAM++、Eigen-CAM の可視化技術が DGNN-YOLO に適用され、モデルに依存しない解釈可能性とモデルの意思決定プロセスへのより深い洞察が提供され、モデルの透明性と信頼性が向上しました。
広範な実験により、DGNN-YOLO はさまざまな交通状況下での小さな物体の検出と追跡において常に最先端の方法を上回り、最高の精度 (0.8382)、再現率 (0.6875)、および mAP@0.5:0.95 (0.6476) を達成したことが実証されました。
、特に小さくて遮られたオブジェクトを含む困難なシナリオにおいて、その堅牢性とスケーラビリティを示しています。
この研究は、スケーラブルなリアルタイム交通監視および分析ソリューションを提供し、インテリジェント交通システムに大きく貢献します。
要約(オリジナル)
Accurate detection and tracking of small objects, such as pedestrians, cyclists, and motorbikes, is critical for traffic surveillance systems, which are crucial for improving road safety and decision-making in intelligent transportation systems. However, traditional methods face challenges such as occlusion, low resolution, and dynamic traffic conditions, necessitating innovative approaches to address these limitations. This paper introduces DGNN-YOLO, a novel framework integrating dynamic graph neural networks (DGNN) with YOLO11 to enhance small-object detection and tracking in traffic surveillance systems. The framework leverages YOLO11’s advanced spatial feature extraction capabilities for precise object detection and incorporates a DGNN to model spatial-temporal relationships for robust real-time tracking dynamically. By constructing and updating graph structures, DGNN-YOLO effectively represents objects as nodes and their interactions as edges, thereby ensuring adaptive and accurate tracking in complex and dynamic environments. Additionally, Grad-CAM, Grad-CAM++, and Eigen-CAM visualization techniques were applied to DGNN-YOLO to provide model-agnostic interpretability and deeper insights into the model’s decision-making process, enhancing its transparency and trustworthiness. Extensive experiments demonstrated that DGNN-YOLO consistently outperformed state-of-the-art methods in detecting and tracking small objects under diverse traffic conditions, achieving the highest precision (0.8382), recall (0.6875), and mAP@0.5:0.95 (0.6476), showing its robustness and scalability, particularly in challenging scenarios involving small and occluded objects. This study provides a scalable, real-time traffic surveillance and analysis solution, significantly contributing to intelligent transportation systems.
arxiv情報
著者 | Shahriar Soudeep,M. F. Mridha,Md Abrar Jahin,Nilanjan Dey |
発行日 | 2024-12-27 16:24:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google