Gait Recognition in Large-scale Free Environment via Single LiDAR

要約

人間の歩行認識はマルチメディアにおいて極めて重要であり、直接的な対話を行わずに歩行パターンによる識別を可能にし、スマート ホーム、ヘルスケア、非侵入型セキュリティなどの現実世界のアプリケーションにおけるさまざまなメディア形式にわたる統合を強化します。
LiDAR の深度を捉える機能はロボットの認識にとって極めて重要であり、現実世界の歩行認識にも期待されています。
この論文では、単一の LiDAR に基づいて、堅牢な歩行認識のための階層型マルチ表現機能インタラクション ネットワーク (HMRNet) を紹介します。
一般的な LiDAR ベースの歩行データセットは主に、事前に定義された軌道による制御された設定から派生しているため、現実世界のシナリオとのギャップが残っています。
LiDAR ベースの歩行認識研究を促進するために、マルチモーダルで多様な 2D/3D データで強化された、大規模で制約のない設定からの包括的な歩行データセットである FreeGait を導入します。
特に、私たちのアプローチは、以前のデータセット (SUSTech1K) と FreeGait で最先端のパフォーマンスを達成しています。
コードとデータセットは、この論文の出版時に公開されます。

要約(オリジナル)

Human gait recognition is crucial in multimedia, enabling identification through walking patterns without direct interaction, enhancing the integration across various media forms in real-world applications like smart homes, healthcare and non-intrusive security. LiDAR’s ability to capture depth makes it pivotal for robotic perception and holds promise for real-world gait recognition. In this paper, based on a single LiDAR, we present the Hierarchical Multi-representation Feature Interaction Network (HMRNet) for robust gait recognition. Prevailing LiDAR-based gait datasets primarily derive from controlled settings with predefined trajectory, remaining a gap with real-world scenarios. To facilitate LiDAR-based gait recognition research, we introduce FreeGait, a comprehensive gait dataset from large-scale, unconstrained settings, enriched with multi-modal and varied 2D/3D data. Notably, our approach achieves state-of-the-art performance on prior dataset (SUSTech1K) and on FreeGait. Code and dataset will be released upon publication of this paper.

arxiv情報

著者 Xiao Han,Yiming Ren,Peishan Cong,Yujing Sun,Jingya Wang,Lan Xu,Yuexin Ma
発行日 2024-04-26 12:25:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク