要約
ディープ ニューラル ネットワークの解釈可能性は、コンピューター ビジョンを含むさまざまなアプリケーションにおけるモデルの決定を理解するために非常に重要です。
AttEXplore++ は、AttEXplore に基づいて構築された高度なフレームワークであり、MIG や GRA などの移転可能な敵対的攻撃手法を組み込むことでアトリビューションを強化し、モデル説明の精度と堅牢性を大幅に向上させます。
ImageNet データセットを使用して、CNN (Inception-v3、ResNet-50、VGG16) およびビジョン トランスフォーマー (MaxViT-T、ViT-B/16) を含む 5 つのモデルで広範な実験を行っています。
私たちの方法は、AttEXplore と比較して 7.57\%、他の最先端の解釈可能性アルゴリズムと比較して 32.62\% の平均パフォーマンス向上を達成しています。
評価指標として挿入スコアと削除スコアを使用して、敵対的転送可能性がアトリビューション結果を向上させる上で重要な役割を果たすことを示します。
さらに、ランダム性、摂動率、ノイズ振幅、多様性確率がアトリビューションのパフォーマンスに与える影響を調査し、AttEXplore++ がさまざまなモデルにわたってより安定した信頼性の高い説明を提供することを実証しました。
コードは https://anonymous.4open.science/r/ATTEXPLOREP-8435/ でリリースされます。
要約(オリジナル)
The interpretability of deep neural networks is crucial for understanding model decisions in various applications, including computer vision. AttEXplore++, an advanced framework built upon AttEXplore, enhances attribution by incorporating transferable adversarial attack methods such as MIG and GRA, significantly improving the accuracy and robustness of model explanations. We conduct extensive experiments on five models, including CNNs (Inception-v3, ResNet-50, VGG16) and vision transformers (MaxViT-T, ViT-B/16), using the ImageNet dataset. Our method achieves an average performance improvement of 7.57\% over AttEXplore and 32.62\% compared to other state-of-the-art interpretability algorithms. Using insertion and deletion scores as evaluation metrics, we show that adversarial transferability plays a vital role in enhancing attribution results. Furthermore, we explore the impact of randomness, perturbation rate, noise amplitude, and diversity probability on attribution performance, demonstrating that AttEXplore++ provides more stable and reliable explanations across various models. We release our code at: https://anonymous.4open.science/r/ATTEXPLOREP-8435/
arxiv情報
著者 | Zhiyu Zhu,Jiayu Zhang,Zhibo Jin,Huaming Chen,Jianlong Zhou,Fang Chen |
発行日 | 2024-12-27 08:27:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google