Fidelity of Ensemble Aggregation for Saliency Map Explanations using Bayesian Optimization Techniques

要約

近年、ニューラルネットワークを説明するための特徴量帰属法が豊富に開発されている。特にコンピュータビジョンの分野では、画素の帰属を提供する顕著性マップの生成方法が多く存在する。しかし、それらの説明は互いに矛盾していることが多く、どの説明を信用すればよいのかがわからない。この問題に対する自然な解決策は、複数の説明を集約することである。我々は、モデルの判断に対する忠実度が個々の説明よりも高い新しい説明を生成することを目的として、画素に基づく集計スキームを提示し、比較する。ベイズ最適化の分野の手法を用い、個々の説明の間の分散を集約プロセスに組み込む。さらに、複数の正規化技術がアンサンブル集計に与える影響を分析する。

要約(オリジナル)

In recent years, an abundance of feature attribution methods for explaining neural networks have been developed. Especially in the field of computer vision, many methods for generating saliency maps providing pixel attributions exist. However, their explanations often contradict each other and it is not clear which explanation to trust. A natural solution to this problem is the aggregation of multiple explanations. We present and compare different pixel-based aggregation schemes with the goal of generating a new explanation, whose fidelity to the model’s decision is higher than each individual explanation. Using methods from the field of Bayesian Optimization, we incorporate the variance between the individual explanations into the aggregation process. Additionally, we analyze the effect of multiple normalization techniques on ensemble aggregation.

arxiv情報

著者 Yannik Mahlau,Christian Nolde
発行日 2022-07-04 16:34:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク