要約
歩行認識は、離れた場所から人物を識別するための急速に進歩している視覚技術であり、屋内環境において大幅な進歩を遂げています。
しかし、新たにリリースされた現実世界の歩行データセットに既存の手法を適用すると、満足のいく結果が得られないことが多いという証拠があります。
さらに、屋内歩行データセットから得られた結論は、屋外歩行データセットに簡単に一般化できない場合があります。
したがって、この作業の主な目的は、パフォーマンスの向上のみに焦点を当てるのではなく、実用性の向上を目的とした包括的なベンチマーク調査を提示することです。
この目的を達成するために、私たちはまず、柔軟で効率的な歩行認識プラットフォームである OpenGait を開発します。
OpenGait を基盤として使用し、歩行認識の最近の発展を再検討するために詳細なアブレーション実験を実施します。
驚くべきことに、特定の従来の方法の不完全な部分が検出され、その結果、いくつかの重要な未発見の洞察が得られます。
これらの発見に触発されて、我々は構造的に単純だが経験的に強力で実用的に堅牢な 3 つのベースライン モデル、つまり DeepGaitV2、SkeletonGait、および SkeletonGait++ を開発しました。これらはそれぞれ、歩行パターンを記述するための外観ベース、モデルベース、およびマルチモーダル方法論を表しています。
SoTA のパフォーマンスを達成するだけでなく、さらに重要なのは、私たちの慎重な探求により、深い歩行モデルのモデリング体験や典型的な歩行様式の表現能力などに新たな光が当てられることです。
私たちは、この研究がさらなる研究と歩行認識の実用化に向けた応用につながることを願っています。
コードは https://github.com/ShiqiYu/OpenGait で入手できます。
要約(オリジナル)
Gait recognition, a rapidly advancing vision technology for person identification from a distance, has made significant strides in indoor settings. However, evidence suggests that existing methods often yield unsatisfactory results when applied to newly released real-world gait datasets. Furthermore, conclusions drawn from indoor gait datasets may not easily generalize to outdoor ones. Therefore, the primary goal of this work is to present a comprehensive benchmark study aimed at improving practicality rather than solely focusing on enhancing performance. To this end, we first develop OpenGait, a flexible and efficient gait recognition platform. Using OpenGait as a foundation, we conduct in-depth ablation experiments to revisit recent developments in gait recognition. Surprisingly, we detect some imperfect parts of certain prior methods thereby resulting in several critical yet undiscovered insights. Inspired by these findings, we develop three structurally simple yet empirically powerful and practically robust baseline models, i.e., DeepGaitV2, SkeletonGait, and SkeletonGait++, respectively representing the appearance-based, model-based, and multi-modal methodology for gait pattern description. Beyond achieving SoTA performances, more importantly, our careful exploration sheds new light on the modeling experience of deep gait models, the representational capacity of typical gait modalities, and so on. We hope this work can inspire further research and application of gait recognition towards better practicality. The code is available at https://github.com/ShiqiYu/OpenGait.
arxiv情報
著者 | Chao Fan,Saihui Hou,Junhao Liang,Chuanfu Shen,Jingzhe Ma,Dongyang Jin,Yongzhen Huang,Shiqi Yu |
発行日 | 2024-05-15 07:11:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google