要約
近年、高度道路交通システムの発展により、運転支援システム、交通流管理、車両追跡などのさまざまなアプリケーションにおいて車両再識別(Re-ID)の重要性が高まっています。
ただし、無関係な背景情報やオクルージョンの存在は、識別機能の学習を妨げる可能性があり、異なるシナリオ間で同じ車両の画像に大きな変化が生じる可能性があります。
この論文では、動的類似性隣接行列に基づくグラフ ネットワーク (DSAM-GN) と呼ばれる方法を提案します。この方法には、局所的な特徴の空間的関係を捕捉し、背景ノイズを低減するための隣接行列を構築するための新しいアプローチが組み込まれています。
具体的には、提案手法は、抽出された車両の特徴をグラフネットワーク内のノードとして異なるパッチに分割します。
空間アテンションベースの類似性隣接行列生成 (SASAMG) モジュールを使用してノードの類似性行列を計算し、動的消去操作を適用して類似性の低いノードを切断し、類似性隣接行列が生成されます。
最後に、ノードと類似性隣接行列がグラフ ネットワークに入力されて、車両 Re-ID のより識別的な特徴が抽出されます。
公開データセット VeRi-776 と VehicleID に関する実験結果は、最近の研究と比較して、提案された方法の有効性を示しています。
要約(オリジナル)
In recent years, vehicle re-identification (Re-ID) has gained increasing importance in various applications such as assisted driving systems, traffic flow management, and vehicle tracking, due to the growth of intelligent transportation systems. However, the presence of extraneous background information and occlusions can interfere with the learning of discriminative features, leading to significant variations in the same vehicle image across different scenarios. This paper proposes a method, named graph network based on dynamic similarity adjacency matrices (DSAM-GN), which incorporates a novel approach for constructing adjacency matrices to capture spatial relationships of local features and reduce background noise. Specifically, the proposed method divides the extracted vehicle features into different patches as nodes within the graph network. A spatial attention-based similarity adjacency matrix generation (SASAMG) module is employed to compute similarity matrices of nodes, and a dynamic erasure operation is applied to disconnect nodes with low similarity, resulting in similarity adjacency matrices. Finally, the nodes and similarity adjacency matrices are fed into graph networks to extract more discriminative features for vehicle Re-ID. Experimental results on public datasets VeRi-776 and VehicleID demonstrate the effectiveness of the proposed method compared with recent works.
arxiv情報
著者 | Yuejun Jiao,Song Qiu,Mingsong Chen,Dingding Han,Qingli Li,Yue Lu |
発行日 | 2023-10-25 15:04:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google