Towards Visual Saliency Explanations of Face Recognition

要約

ディープ畳み込みニューラル ネットワークは、ここ数年で顔認識 (FR) 技術の最前線を押し広げてきました。
精度は高いものの、説明性に欠けると批判されることも多い。
深顔認識システムの意思決定プロセスを理解する需要が高まっています。
最近の研究では、説明として視覚的顕著性マップを使用して調査が行われていますが、顔認識の文脈での議論や分析が欠けていることがよくあります。
本稿では顔認識の新たな説明枠組みを考案する。
まず、深い FR モデルによって行われる決定に焦点を当てた、顕著性に基づく説明方法の新しい定義を提供します。
次に、新しい相関ベースの RISE アルゴリズム (CorrRISE) を提案して、特定の顔画像ペアの類似領域と非類似領域の両方を明らかにする顕著性マップを作成します。
さらに、顔認識における一般的な視覚的顕著性の説明方法のパフォーマンスを測定するために 2 つの評価指標が設計されています。
その結果、実質的な視覚的かつ定量的な結果は、提案された方法が他の説明可能な顔認識アプローチよりも一貫して優れていることを示しています。

要約(オリジナル)

Deep convolutional neural networks have been pushing the frontier of face recognition (FR) techniques in the past years. Despite the high accuracy, they are often criticized for lacking explainability. There has been an increasing demand for understanding the decision-making process of deep face recognition systems. Recent studies have investigated using visual saliency maps as an explanation, but they often lack a discussion and analysis in the context of face recognition. This paper conceives a new explanation framework for face recognition. It starts by providing a new definition of the saliency-based explanation method, which focuses on the decisions made by the deep FR model. Then, a novel correlation-based RISE algorithm (CorrRISE) is proposed to produce saliency maps, which reveal both the similar and dissimilar regions of any given pair of face images. Besides, two evaluation metrics are designed to measure the performance of general visual saliency explanation methods in face recognition. Consequently, substantial visual and quantitative results have shown that the proposed method consistently outperforms other explainable face recognition approaches.

arxiv情報

著者 Yuhang Lu,Zewei Xu,Touradj Erahimi
発行日 2023-05-15 11:17:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク