Less is More: The Influence of Pruning on the Explainability of CNNs

要約

コンピューター ビジョンにおける最新の畳み込みニューラル ネットワーク (CNN) には、数百万のパラメーターがあります。
したがって、このようなネットワークの複雑な決定を人間に説明するのは困難です。
CNN の複雑さを軽減するための技術的アプローチは、重要性の低いパラメータを削除するネットワーク プルーニングです。
この論文で紹介した研究では、この技術的な複雑さの軽減が、知覚される説明可能性にも役立つかどうかを調査しています。
そのために、私たちは 1 つの事前調査と 2 つの人間による実験を実施し、さまざまな枝刈り比が CNN の説明可能性に及ぼす影響を評価しました。
全体として、Mechanical Turk で 37,500 のタスクを使用して 4 つの異なる圧縮率 (CPR 2、4、8、および 32) を評価しました。
結果は、低い圧縮率は説明可能性にプラスの影響を与える一方、高い圧縮率はマイナスの影響を示すことを示しています。
さらに、知覚される説明可能性とモデルのパフォーマンスの両方を向上させるスイートスポットを特定することができました。

要約(オリジナル)

Modern, state-of-the-art Convolutional Neural Networks (CNNs) in computer vision have millions of parameters. Thus, explaining the complex decisions of such networks to humans is challenging. A technical approach to reduce CNN complexity is network pruning, where less important parameters are deleted. The work presented in this paper investigates whether this technical complexity reduction also helps with perceived explainability. To do so, we conducted a pre-study and two human-grounded experiments, assessing the effects of different pruning ratios on CNN explainability. Overall, we evaluated four different compression rates (i.e., CPR 2, 4, 8, and 32) with 37 500 tasks on Mechanical Turk. Results indicate that lower compression rates have a positive influence on explainability, while higher compression rates show negative effects. Furthermore, we were able to identify sweet spots that increase both the perceived explainability and the model’s performance.

arxiv情報

著者 David Weber,Florian Merkle,Pascal Schöttle,Stephan Schlögl
発行日 2025-01-09 15:35:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク