Advanced computer vision for extracting georeferenced vehicle trajectories from drone imagery

要約

この論文では、高高度のドローン映像から地理参照された車両の軌道を抽出するためのフレームワークを紹介し、都市交通監視における主要な課題と従来の地上ベースのシステムの制限に対処します。
当社は最先端のコンピューター ビジョンとディープ ラーニングを採用して、車両の検出、追跡、軌道の安定化を強化するエンドツーエンドのパイプラインを作成します。
韓国の松島国際ビジネス地区で実施されたこの研究では、20 か所の交差点でマルチドローン実験が行われ、4 日間で約 12TB の 4K ビデオ データが収集されました。
私たちは、画像登録時に検出された車両境界ボックスを除外マスクとして使用する新しい軌道安定化方法を開発しました。これは、高度な地理参照技術と組み合わせて、車両座標を現実世界の地理データに正確に変換します。
さらに、当社のフレームワークには、詳細な交通分析のための堅牢な車両寸法推定と詳細な道路セグメンテーションが含まれています。
このフレームワークは 2 つの高品質のデータセットを生成しました。100 万近くの固有の車両軌跡で構成される松島交通データセットと、4 つのクラスの約 300,000 台の車両インスタンスを含む 5,000 以上の人による注釈付きフレームを含む松島ビジョン データセットです。
ドローン由来のデータと計装探査機からの高精度センサー データを比較すると、密集した都市環境におけるフレームワークの抽出の精度と一貫性が浮き彫りになります。
これらのデータセットとパイプライン ソース コードを公開することで、この研究はトラフィック調査におけるデータ品質、再現性、拡張性の新しいベンチマークを設定します。
結果は、正確で費用対効果の高い都市交通監視のためにドローン技術と高度なコンピュータビジョンを統合する可能性を実証し、研究コミュニティにインテリジェントな交通システムを開発し、交通管理戦略を改善するための貴重なリソースを提供します。

要約(オリジナル)

This paper presents a framework for extracting georeferenced vehicle trajectories from high-altitude drone footage, addressing key challenges in urban traffic monitoring and limitations of traditional ground-based systems. We employ state-of-the-art computer vision and deep learning to create an end-to-end pipeline that enhances vehicle detection, tracking, and trajectory stabilization. Conducted in the Songdo International Business District, South Korea, the study used a multi-drone experiment over 20 intersections, capturing approximately 12TB of 4K video data over four days. We developed a novel track stabilization method that uses detected vehicle bounding boxes as exclusion masks during image registration, which, combined with advanced georeferencing techniques, accurately transforms vehicle coordinates into real-world geographical data. Additionally, our framework includes robust vehicle dimension estimation and detailed road segmentation for in-depth traffic analysis. The framework produced two high-quality datasets: the Songdo Traffic dataset, comprising nearly 1 million unique vehicle trajectories, and the Songdo Vision dataset, containing over 5,000 human-annotated frames with about 300,000 vehicle instances in four classes. Comparisons between drone-derived data and high-precision sensor data from an instrumented probe vehicle highlight the accuracy and consistency of our framework’s extraction in dense urban settings. By publicly releasing these datasets and the pipeline source code, this work sets new benchmarks for data quality, reproducibility, and scalability in traffic research. Results demonstrate the potential of integrating drone technology with advanced computer vision for precise, cost-effective urban traffic monitoring, providing valuable resources for the research community to develop intelligent transportation systems and improve traffic management strategies.

arxiv情報

著者 Robert Fonod,Haechan Cho,Hwasoo Yeo,Nikolas Geroliminis
発行日 2024-11-04 14:49:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク