Towards Quantitative Evaluation of Explainable AI Methods for Deepfake Detection

要約

この論文では、ディープフェイク検出器の決定に関する説明方法のパフォーマンスを評価するための新しいフレームワークを提案します。
このフレームワークは、一連の敵対的攻撃を通じてこれらの領域がどの程度変更されるかを調べることにより、ディープフェイク検出器の決定に最も大きな影響を与える偽画像の領域を特定する説明手法の能力を評価します。
検出器の予測を反転するか、その初期予測を減らします。
これらの領域をより正確に検出する方法では、ディープフェイクの検出精度と予測がさらに大きく低下すると予想されます。
このフレームワークに基づいて、FaceForensics++ データセットでトレーニングされた最先端のディープフェイク検出モデルと文献からの 5 つの説明方法を使用して比較研究を実施します。
私たちの定量的および定性的評価の結果は、他の比較されたものと比較してLIME説明方法の高度なパフォーマンスを文書化し、この方法が利用されたディープフェイク検出器の決定を説明するのに最も適切であることを示しています。

要約(オリジナル)

In this paper we propose a new framework for evaluating the performance of explanation methods on the decisions of a deepfake detector. This framework assesses the ability of an explanation method to spot the regions of a fake image with the biggest influence on the decision of the deepfake detector, by examining the extent to which these regions can be modified through a set of adversarial attacks, in order to flip the detector’s prediction or reduce its initial prediction; we anticipate a larger drop in deepfake detection accuracy and prediction, for methods that spot these regions more accurately. Based on this framework, we conduct a comparative study using a state-of-the-art model for deepfake detection that has been trained on the FaceForensics++ dataset, and five explanation methods from the literature. The findings of our quantitative and qualitative evaluations document the advanced performance of the LIME explanation method against the other compared ones, and indicate this method as the most appropriate for explaining the decisions of the utilized deepfake detector.

arxiv情報

著者 Konstantinos Tsigos,Evlampios Apostolidis,Spyridon Baxevanakis,Symeon Papadopoulos,Vasileios Mezaris
発行日 2024-04-29 12:32:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク