Uncertainty-aware Gait Recognition via Learning from Dirichlet Distribution-based Evidence

要約

既存の歩行認識フレームワークは、プローブ サンプルとギャラリー内のアイデンティティの間の距離に基づいてギャラリー内のアイデンティティを取得します。
ただし、既存の方法では、ギャラリーにプローブに対応する ID が含まれていない可能性があることが無視されることが多く、警告を発するのではなく、認識エラーが発生します。
この論文では、学習した証拠に基づいて識別の不確実性をモデル化する、新しい不確実性を意識した歩行認識方法を紹介します。
具体的には、認識モデルを証拠コレクターとして扱い、入力サンプルから証拠を収集し、証拠上のディリクレ分布をパラメーター化します。
ディリクレ分布は基本的に、入力サンプルに割り当てられた確率の密度を表します。
この分布を利用して、各プローブ サンプルの結果として生じる不確実性を評価し、ギャラリー内に対応するプローブがあるかどうかを判断します。
私たちの知る限り、私たちの方法は不確実性モデリングを使用して歩行認識に取り組む最初の試みです。
さらに、不確実なモデリングにより、配布外 (OOD) クエリに対する堅牢性が大幅に向上します。
広範な実験により、私たちの方法が OOD クエリを使用したデータセットで最先端のパフォーマンスを達成し、他の ID 検索タスクにもうまく一般化できることが実証されました。
重要なのは、OUMVLP で OOD クエリ レートが約 50% である場合、私たちの方法は 51.26% という大差で最先端の方法を上回っていることです。

要約(オリジナル)

Existing gait recognition frameworks retrieve an identity in the gallery based on the distance between a probe sample and the identities in the gallery. However, existing methods often neglect that the gallery may not contain identities corresponding to the probes, leading to recognition errors rather than raising an alarm. In this paper, we introduce a novel uncertainty-aware gait recognition method that models the uncertainty of identification based on learned evidence. Specifically, we treat our recognition model as an evidence collector to gather evidence from input samples and parameterize a Dirichlet distribution over the evidence. The Dirichlet distribution essentially represents the density of the probability assigned to the input samples. We utilize the distribution to evaluate the resultant uncertainty of each probe sample and then determine whether a probe has a counterpart in the gallery or not. To the best of our knowledge, our method is the first attempt to tackle gait recognition with uncertainty modelling. Moreover, our uncertain modeling significantly improves the robustness against out-of-distribution (OOD) queries. Extensive experiments demonstrate that our method achieves state-of-the-art performance on datasets with OOD queries, and can also generalize well to other identity-retrieval tasks. Importantly, our method outperforms the state-of-the-art by a large margin of 51.26% when the OOD query rate is around 50% on OUMVLP.

arxiv情報

著者 Beibei Lin,Chen Liu,Ming Wang,Lincheng Li,Shunli Zhang,Robby T. Tan,Xin Yu
発行日 2023-10-13 14:00:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク