Motion Matters: A Novel Motion Modeling For Cross-View Gait Feature Learning

要約

歩行は、離れた場所からでも認識できるユニークな生体認証として、個人認証や社会保障などに広く応用されています。
既存の歩容認識手法は、視点や服装の変化に悩まされており、歩行シーケンスから歩行の基本的な特徴である多様な運動特徴を抽出することはほとんど考慮されていません。
本稿では、弁別的でロバストな表現を抽出するための新しいモーション モデリング手法を提案します。
具体的には、まず、浅い層でエンコードされたモーション シーケンスからモーションの特徴を抽出します。
次に、深いレイヤーでモーション機能を継続的に強化します。
このモーション モデリング アプローチは、ネットワーク アーキテクチャの構築における主流の作業とは無関係です。
その結果、このモーション モデリング手法を任意のバックボーンに適用して、歩行認識パフォーマンスを向上させることができます。
この論文では、モーションモデリングをGaitGL-Mとして一般的に使用される1つのバックボーン〜(GaitGL)と組み合わせて、モーションモデリングを説明します。
一般的に使用される 2 つのクロスビュー歩行データセットに関する広範な実験結果は、既存の最先端の方法よりも GaitGL-M の優れたパフォーマンスを示しています。

要約(オリジナル)

As a unique biometric that can be perceived at a distance, gait has broad applications in person authentication, social security, and so on. Existing gait recognition methods suffer from changes in viewpoint and clothing and barely consider extracting diverse motion features, a fundamental characteristic in gaits, from gait sequences. This paper proposes a novel motion modeling method to extract the discriminative and robust representation. Specifically, we first extract the motion features from the encoded motion sequences in the shallow layer. Then we continuously enhance the motion feature in deep layers. This motion modeling approach is independent of mainstream work in building network architectures. As a result, one can apply this motion modeling method to any backbone to improve gait recognition performance. In this paper, we combine motion modeling with one commonly used backbone~(GaitGL) as GaitGL-M to illustrate motion modeling. Extensive experimental results on two commonly-used cross-view gait datasets demonstrate the superior performance of GaitGL-M over existing state-of-the-art methods.

arxiv情報

著者 Jingqi Li,Jiaqi Gao,Yuzhen Zhang,Hongming Shan,Junping Zhang
発行日 2023-01-19 14:11:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク