Evidence-based Match-status-Aware Gait Recognition for Out-of-Gallery Gait Identification

要約

既存の歩行認識方法は通常、プローブサンプルとギャラリーサンプル間の類似性に基づいて個人を識別します。
ただし、これらの方法では、ギャラリーにプローブに対応する ID が含まれていない可能性があるという事実が無視されることが多く、誤った認識につながります。ギャラリー外 (OOG) 歩行クエリを識別するために、証拠に基づいた一致ステータス認識歩行を提案します。
認識 (EMA-GR) フレームワーク。
EMA-GR は、Evidential Deep Learning (EDL) からインスピレーションを得て、認識の一致ステータスに関連する不確実性を定量化するように設計されています。
したがって、EMA-GR は、探査機がギャラリー内に対応する探査機を持っているかどうかを識別します。
具体的には、デンプスター・シェーファー証拠理論 (DST) に従って、認識結果のペアから一致ステータスの証拠を収集し、収集された証拠にわたるディリクレ分布をパラメータ化するために証拠コレクターを採用します。
不確実性を測定し、認識結果の一致状況を予測することで、プローブが OOG クエリであるかどうかを判断します。私たちの知る限り、私たちの方法は、歩行認識において OOG クエリに取り組む最初の試みです。
さらに、EMA-GR は歩行認識方法に依存せず、OOG クエリに対する堅牢性を向上させます。
広範な実験により、私たちの方法が OOG クエリを使用したデータセットで最先端のパフォーマンスを達成し、他の ID 検索タスクにも十分に一般化できることが実証されました。
重要なのは、私たちの方法は既存の最先端の方法を大幅に上回り、OUMVLP で OOG クエリ レートが約 50% の場合に 51.26% の改善を達成したことです。

要約(オリジナル)

Existing gait recognition methods typically identify individuals based on the similarity between probe and gallery samples. However, these methods often neglect the fact that the gallery may not contain identities corresponding to the probes, leading to incorrect recognition.To identify Out-of-Gallery (OOG) gait queries, we propose an Evidence-based Match-status-Aware Gait Recognition (EMA-GR) framework. Inspired by Evidential Deep Learning (EDL), EMA-GR is designed to quantify the uncertainty associated with the match status of recognition. Thus, EMA-GR identifies whether the probe has a counterpart in the gallery. Specifically, we adopt an evidence collector to gather match status evidence from a recognition result pair and parameterize a Dirichlet distribution over the gathered evidence, following the Dempster-Shafer Theory of Evidence (DST). We measure the uncertainty and predict the match status of the recognition results, and thus determine whether the probe is an OOG query.To the best of our knowledge, our method is the first attempt to tackle OOG queries in gait recognition. Moreover, EMA-GR is agnostic against gait recognition methods and improves the robustness against OOG queries. Extensive experiments demonstrate that our method achieves state-of-the-art performance on datasets with OOG queries, and can also generalize well to other identity-retrieval tasks. Importantly, our method surpasses existing state-of-the-art methods by a substantial margin, achieving a 51.26% improvement when the OOG query rate is around 50% on OUMVLP.

arxiv情報

著者 Heming Du,Chen Liu,Ming Wang,Lincheng Li,Shunli Zhang,Xin Yu
発行日 2024-10-02 13:54:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク