要約
長距離で非接触の識別を実現できる歩行認識は、重要な生体認証技術です。
最近の歩行認識方法は、歩行中の人間の動きや外見のパターンを学習することに焦点を当てており、対応する時空間表現を構築します。
ただし、個人によって動きのパターンの法則が異なり、特に衣服や持ち運びなどの交絡変数が含まれている場合、単純な時空間特徴は人間の部分の動きの変化を説明するのが難しく、特徴の識別性が低下します。
本論文では、大きな動的変化を伴う人間の部分に焦点を合わせるために時空間特徴を導くための運動励起モジュール(MEM)を提案し、MEMは時間的運動変化の表現を得るためにフレームと間隔の間の差異情報を学習します。
MEMは長さが不確かなフレームシーケンスに適応でき、追加のパラメータを追加しないことは言及する価値があります。
さらに、個人のさまざまな水平部分に応じて人体の時空間表現を独立して学習するFine Feature Extractor(FFE)を紹介します。
MEMとFFEの恩恵を受けて、私たちの方法は動きの変化情報を革新的に組み合わせ、クロスアピアランス条件下でのモデルのパフォーマンスを大幅に改善します。
人気のあるデータセットCASIA-Bでは、提案されたモーション歩行は既存の歩行認識方法よりも優れています。
要約(オリジナル)
Gait recognition, which can realize long-distance and contactless identification, is an important biometric technology. Recent gait recognition methods focus on learning the pattern of human movement or appearance during walking, and construct the corresponding spatio-temporal representations. However, different individuals have their own laws of movement patterns, simple spatial-temporal features are difficult to describe changes in motion of human parts, especially when confounding variables such as clothing and carrying are included, thus distinguishability of features is reduced. In this paper, we propose the Motion Excitation Module (MEM) to guide spatio-temporal features to focus on human parts with large dynamic changes, MEM learns the difference information between frames and intervals, so as to obtain the representation of temporal motion changes, it is worth mentioning that MEM can adapt to frame sequences with uncertain length, and it does not add any additional parameters. Furthermore, we present the Fine Feature Extractor (FFE), which independently learns the spatio-temporal representations of human body according to different horizontal parts of individuals. Benefiting from MEM and FFE, our method innovatively combines motion change information, significantly improving the performance of the model under cross appearance conditions. On the popular dataset CASIA-B, our proposed Motion Gait is better than the existing gait recognition methods.
arxiv情報
著者 | Yunpeng Zhang,Zhengyou Wang,Shanna Zhuang,Hui Wang |
発行日 | 2022-06-22 13:47:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google