Free Lunch for Gait Recognition: A Novel Relation Descriptor

要約

歩行認識は、長距離でのユニークな歩行パターンによってクエリ個人の正確な一致を検索することです。
しかし、現在の手法は個人の歩行の特徴のみに焦点を当てており、対人関係は無視されています。
この論文では、歩行表現を再考し、歩行は単なる個人の特徴の集合ではなく、基準歩行が確立された後の異なる被験者の歩行特徴間の関係も主張します。
この観点から、分類子の重みを参照に固定された歩行として再定義し、各人の歩行をこれらの参照との関係によって説明できるようにします。
私たちの研究では、この新しい記述子を関係記述子 (RD) と呼びます。
この関係記述子には、意味のある機能の強調と堅牢性の強化という 2 つの利点があります。
具体的には、歩行特徴と分類子の重みの間の正規化されたドット積は類似性関係を示し、各次元はテスト サンプルと各トレーニング ID の歩行プロトタイプ間の類似性をそれぞれ示します。
その可能性にもかかわらず、関係記述子を直接使用すると、RD の次元がトレーニング セットの ID 数に依存するため、次元に関する課題が生じます。
これに対処するために、私たちは、最も遠いアンカー歩行選択アルゴリズムと、歩行認識パフォーマンスを向上させる次元削減方法を提案します。
私たちの方法は、追加のパラメーターを必要とせずに、既製の事前トレーニングされた分類ベースのモデルの上に構築できます。
RD は抽出された特徴を直接使用するよりも高い認識パフォーマンスを達成することを示します。
私たちは、人気のある GREW、Gait3D、CASIA-B、および OU-MVLP に対するメソッドの有効性を評価し、このメソッドが常にベースラインを上回り、最先端のパフォーマンスを達成していることを示しています。

要約(オリジナル)

Gait recognition is to seek correct matches for query individuals by their unique walking patterns at a long distance. However, current methods focus solely on individual gait features, disregarding inter-personal relationships. In this paper, we reconsider gait representation, asserting that gait is not just an aggregation of individual features, but also the relationships among different subjects’ gait features once reference gaits are established. From this perspective, we redefine classifier weights as reference-anchored gaits, allowing each person’s gait to be described by their relationship with these references. In our work, we call this novel descriptor Relationship Descriptor (RD). This Relationship Descriptor offers two benefits: emphasizing meaningful features and enhancing robustness. To be specific, The normalized dot product between gait features and classifier weights signifies a similarity relation, where each dimension indicates the similarity between the test sample and each training ID’s gait prototype, respectively. Despite its potential, the direct use of relationship descriptors poses dimensionality challenges since the dimension of RD depends on the training set’s identity count. To address this, we propose a Farthest Anchored gaits Selection algorithm and a dimension reduction method to boost gait recognition performance. Our method can be built on top of off-the-shelf pre-trained classification-based models without extra parameters. We show that RD achieves higher recognition performance than directly using extracted features. We evaluate the effectiveness of our method on the popular GREW, Gait3D, CASIA-B, and OU-MVLP, showing that our method consistently outperforms the baselines and achieves state-of-the-art performances.

arxiv情報

著者 Jilong Wang,Saihui Hou,Yan Huang,Chunshui Cao,Xu Liu,Yongzhen Huang,Liang Wang
発行日 2023-08-22 15:06:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク