要約
車両再識別 (ReID) は、さまざまな交通環境にわたるカメラの分散ネットワークから収集された車両画像を関連付けようとします。
このタスクは、車両中心のテクノロジーの範囲内で最も重要な役割を担っており、高度道路交通システム (ITS) の導入とスマート シティへの取り組みの推進において極めて重要な役割を果たします。
近年、ディープラーニングの急速な進歩により、車両 ReID テクノロジーの進化が大きく推進されています。
その結果、車両の再識別のためのディープラーニングを中心とした方法論の包括的な調査に取り組むことが不可欠かつ避けられないものとなっています。
この論文では、車両 ReID に適用される深層学習技術を広範囲に調査します。
教師ありアプローチと教師なしアプローチを含むこれらの手法の分類の概要を説明し、これらのカテゴリー内の既存の研究を掘り下げ、データセットと評価基準を紹介し、今後の課題と潜在的な研究の方向性を概説します。
この包括的な評価は、車両 ReID におけるディープラーニングの状況を調査し、将来の作業の基礎と出発点を確立します。
課題と新たな傾向を強調し、深層学習モデルを利用した車両 ReID の進歩と応用を促進することにより、完全な参考資料として機能することを目的としています。
要約(オリジナル)
Vehicle re-identification (ReID) endeavors to associate vehicle images collected from a distributed network of cameras spanning diverse traffic environments. This task assumes paramount importance within the spectrum of vehicle-centric technologies, playing a pivotal role in deploying Intelligent Transportation Systems (ITS) and advancing smart city initiatives. Rapid advancements in deep learning have significantly propelled the evolution of vehicle ReID technologies in recent years. Consequently, undertaking a comprehensive survey of methodologies centered on deep learning for vehicle re-identification has become imperative and inescapable. This paper extensively explores deep learning techniques applied to vehicle ReID. It outlines the categorization of these methods, encompassing supervised and unsupervised approaches, delves into existing research within these categories, introduces datasets and evaluation criteria, and delineates forthcoming challenges and potential research directions. This comprehensive assessment examines the landscape of deep learning in vehicle ReID and establishes a foundation and starting point for future works. It aims to serve as a complete reference by highlighting challenges and emerging trends, fostering advancements and applications in vehicle ReID utilizing deep learning models.
arxiv情報
著者 | Ali Amiri,Aydin Kaya,Ali Seydi Keceli |
発行日 | 2024-01-19 11:45:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google