LiCamGait: Gait Recognition in the Wild by Using LiDAR and Camera Multi-modal Visual Sensors

要約

LiDAR は、光条件の影響を受けずに、大規模なシナリオで正確な深度情報をキャプチャできます。キャプチャされたポイント クラウドには、歩行関連の 3D 幾何学的プロパティと動的モーション特性が含まれています。
LiDARを活用して、ビューに依存する光に敏感なカメラの制限を改善し、より堅牢で正確な歩行認識を試みる最初の試みを行います。
この論文では、点群と画像の両方の利点を十分に活用する、効果的なマルチモーダル特徴融合戦略を備えたLiDARカメラベースの歩行認識方法を提案します。
特に、マルチモーダルな視覚データと多様な 2D/3D 表現を含む、新しい野生の歩行データセット LiCamGait を提案します。
私たちの方法は、新しいデータセットで最先端のパフォーマンスを実現します。
コードとデータセットは、このペーパーが発行されるときにリリースされます。

要約(オリジナル)

LiDAR can capture accurate depth information in large-scale scenarios without the effect of light conditions, and the captured point cloud contains gait-related 3D geometric properties and dynamic motion characteristics. We make the first attempt to leverage LiDAR to remedy the limitation of view-dependent and light-sensitive camera for more robust and accurate gait recognition. In this paper, we propose a LiDAR-camera-based gait recognition method with an effective multi-modal feature fusion strategy, which fully exploits advantages of both point clouds and images. In particular, we propose a new in-the-wild gait dataset, LiCamGait, involving multi-modal visual data and diverse 2D/3D representations. Our method achieves state-of-the-art performance on the new dataset. Code and dataset will be released when this paper is published.

arxiv情報

著者 Xiao Han,Peishan Cong,Lan Xu,Jingya Wang,Jingyi Yu,Yuexin Ma
発行日 2022-11-22 16:05:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク