要約
歩行認識は、クエリ個人の固有の歩行パターンに基づいて、正確な一致を検索します。
しかし、現在の手法は個人特有の特徴を抽出することだけに重点が置かれており、人間関係は無視されています。
この論文では、個々の特徴だけでなく、テスト歩行と事前に選択されたアンカー歩行の間の関係も捕捉する新しい $\textbf{関係記述子}$ を提案します。
具体的には、分類子の重みをアンカーされた歩行として再解釈し、テスト特徴とこれらのアンカーの間の類似性スコアを計算します。これにより、個々の歩行特徴が類似関係分布に再表現されます。
基本的に、関係記述子は、分類子の重み内に保存された集合的な知識を活用する全体的な視点を提供し、意味のあるパターンを強調し、堅牢性を高めます。
その可能性にもかかわらず、関係記述子は、その次元がトレーニング セットの ID 数に依存するため、次元に関する課題を引き起こします。
これに対処するために、最も識別的なアンカー歩行を識別するための最遠アンカー歩行選択と、アンカー歩行内の多様性を高めるための直交正則化を提案します。
バックボーンから抽出された個別固有の機能と比較して、私たちのリレーション記述子は、追加コストをほとんどかけずにパフォーマンスを向上させることができます。
私たちは、人気のある GREW、Gait3D、CASIA-B、および OU-MVLP に対するメソッドの有効性を評価し、このメソッドが常にベースラインを上回り、最先端のパフォーマンスを達成していることを示しています。
要約(オリジナル)
Gait recognition is to seek correct matches for query individuals by their unique walking patterns. However, current methods focus solely on extracting individual-specific features, overlooking inter-personal relationships. In this paper, we propose a novel $\textbf{Relation Descriptor}$ that captures not only individual features but also relations between test gaits and pre-selected anchored gaits. Specifically, we reinterpret classifier weights as anchored gaits and compute similarity scores between test features and these anchors, which re-expresses individual gait features into a similarity relation distribution. In essence, the relation descriptor offers a holistic perspective that leverages the collective knowledge stored within the classifier’s weights, emphasizing meaningful patterns and enhancing robustness. Despite its potential, relation descriptor poses dimensionality challenges since its dimension depends on the training set’s identity count. To address this, we propose the Farthest Anchored-gait Selection to identify the most discriminative anchored gaits and an Orthogonal Regularization to increase diversity within anchored gaits. Compared to individual-specific features extracted from the backbone, our relation descriptor can boost the performances nearly without any extra costs. We evaluate the effectiveness of our method on the popular GREW, Gait3D, CASIA-B, and OU-MVLP, showing that our method consistently outperforms the baselines and achieves state-of-the-art performances.
arxiv情報
著者 | Jilong Wang,Saihui Hou,Yan Huang,Chunshui Cao,Xu Liu,Yongzhen Huang,Liang Wang |
発行日 | 2023-08-28 17:42:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google