Watch Your Pose: Unsupervised Domain Adaption with Pose based Triplet Selection for Gait Recognition

要約

歩行認識は、歩行パターンによって人を識別することを目的としたコンピューター ビジョン タスクです。
既存の手法は、個々のデータセットで優れた結果を示しますが、まだ見ぬシナリオに一般化する機能がありません。
教師なしドメイン適応 (UDA) は、ソース ドメインで教師ありの方法で事前トレーニングされたモデルを、ラベルのないターゲット ドメインに適応させようとします。
歩行認識のための UDA はまだ初期段階にあり、既存の研究では限られたシナリオに対するソリューションが提案されています。
この論文では、ターゲット ドメインがアイデンティティ特徴ではなくポーズベースの特徴に偏り、識別タスクのパフォーマンスの大幅な低下を引き起こす、歩行認識モデルの適応における基本的な現象を明らかにします。
このバイアスを軽減するために、歩行方向ベースの教師なしドメイン適応法 (GOUDA) を提案します。
この目的を達成するために、カリキュラム学習フレームワークを備えた新しいトリプレット選択アルゴリズムを提案します。これは、類似したポーズのサンプルを押しのけ、異なるポーズのサンプルを近づけることによって埋め込み空間を適応させることを目的としています。
広く使用されている 4 つの歩行データセット (CASIA-B、OU-MVLP、GREW、Gait3D) と 3 つのバックボーン (GaitSet、GaitPart、GaitGL) に関する広範な実験を提供し、従来の研究に対する提案手法の優位性を示しています。

要約(オリジナル)

Gait Recognition is a computer vision task aiming to identify people by their walking patterns. Existing methods show impressive results on individual datasets but lack the ability to generalize to unseen scenarios. Unsupervised Domain Adaptation (UDA) tries to adapt a model, pre-trained in a supervised manner on a source domain, to an unlabelled target domain. UDA for Gait Recognition is still in its infancy and existing works proposed solutions to limited scenarios. In this paper, we reveal a fundamental phenomenon in adaptation of gait recognition models, in which the target domain is biased to pose-based features rather than identity features, causing a significant performance drop in the identification task. We suggest Gait Orientation-based method for Unsupervised Domain Adaptation (GOUDA) to reduce this bias. To this end, we present a novel Triplet Selection algorithm with a curriculum learning framework, aiming to adapt the embedding space by pushing away samples of similar poses and bringing closer samples of different poses. We provide extensive experiments on four widely-used gait datasets, CASIA-B, OU-MVLP, GREW, and Gait3D, and on three backbones, GaitSet, GaitPart, and GaitGL, showing the superiority of our proposed method over prior works.

arxiv情報

著者 Gavriel Habib,Noa Barzilay,Or Shimshi,Rami Ben-Ari,Nir Darshan
発行日 2023-07-13 13:41:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク