An Explainable Model-Agnostic Algorithm for CNN-based Biometrics Verification

要約

このペーパーでは、Local Interpretable Model-Agnostic Explains (LIME) AI メソッドを生体認証設定下で動作させるための適応について説明します。
LIME は当初、トレーニングに使用されるのと同じ出力クラスを持つネットワーク用に提案され、ソフトマックス確率を使用して、画像のどの領域が分類に最も寄与するかを決定します。
ただし、検証設定では、認識されるクラスはトレーニング中に表示されていません。
さらに、ソフトマックス出力を使用する代わりに、顔記述子は通常、分類層の前の層から取得されます。
このモデルは、入力画像の摂動バージョンの特徴ベクトル間のコサイン類似性を介して説明可能性を達成するように適合されています。
この方法は、MobileNetv2 と ResNet50 に基づく 2 つの CNN モデルを使用した顔生体認証について紹介されています。

要約(オリジナル)

This paper describes an adaptation of the Local Interpretable Model-Agnostic Explanations (LIME) AI method to operate under a biometric verification setting. LIME was initially proposed for networks with the same output classes used for training, and it employs the softmax probability to determine which regions of the image contribute the most to classification. However, in a verification setting, the classes to be recognized have not been seen during training. In addition, instead of using the softmax output, face descriptors are usually obtained from a layer before the classification layer. The model is adapted to achieve explainability via cosine similarity between feature vectors of perturbated versions of the input image. The method is showcased for face biometrics with two CNN models based on MobileNetv2 and ResNet50.

arxiv情報

著者 Fernando Alonso-Fernandez,Kevin Hernandez-Diaz,Jose M. Buades,Prayag Tiwari,Josef Bigun
発行日 2023-07-25 11:51:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク