Discriminative Deep Feature Visualization for Explainable Face Recognition

要約

顔認識 (FR) タスクにおけるディープ畳み込みニューラル ネットワークは大きな成功を収めているにもかかわらず、現在の手法は、その「ブラック ボックス」の性質により、予測の説明可能性に欠けています。
近年、ディープ FR システムの決定を解釈するための研究が行われています。
ただし、入力顔画像と抽出された深部特徴の間の親和性は調査されていません。
この論文は、深い特徴と顔領域の間の対応を明らかにする顔再構成ベースの説明モジュールを最初に考案することによって、説明可能な顔認識の問題に貢献します。
FR モデルの決定をさらに解釈するために、新しい視覚的顕著性説明アルゴリズムが提案されました。
入力顔間の類似領域と非類似領域を表す視覚的な顕著性マップを作成することで、洞察力に富んだ説明を提供します。
提案された方法の有効性を示すために、生成された視覚的な説明の詳細な分析が提示されました。

要約(オリジナル)

Despite the huge success of deep convolutional neural networks in face recognition (FR) tasks, current methods lack explainability for their predictions because of their ‘black-box’ nature. In recent years, studies have been carried out to give an interpretation of the decision of a deep FR system. However, the affinity between the input facial image and the extracted deep features has not been explored. This paper contributes to the problem of explainable face recognition by first conceiving a face reconstruction-based explanation module, which reveals the correspondence between the deep feature and the facial regions. To further interpret the decision of an FR model, a novel visual saliency explanation algorithm has been proposed. It provides insightful explanation by producing visual saliency maps that represent similar and dissimilar regions between input faces. A detailed analysis has been presented for the generated visual explanation to show the effectiveness of the proposed method.

arxiv情報

著者 Zewei Xu,Yuhang Lu,Touradj Ebrahimi
発行日 2023-09-05 12:37:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク