Less is More: The Influence of Pruning on the Explainability of CNNs

要約

コンピューター ビジョンにおける最新の畳み込みニューラル ネットワーク (CNN) には、数百万のパラメーターがあります。
したがって、そのようなネットワークの複雑な決定を人間に説明することは困難です。
CNN の複雑さを軽減するための技術的なアプローチは、重要度の低いパラメーターを削除するネットワーク プルーニングです。
このホワイト ペーパーで紹介する作業では、この技術的な複雑さの軽減が説明可能性の認識にも役立つかどうかを調査します。
そのために、事前調査と 2 つの人間に基づく実験を実施し、CNN の説明可能性に対するさまざまな枝刈り比率の影響を評価しました。
全体として、Mechanical Turk で 37,500 のタスクを使用して、4 つの異なる圧迫率 (つまり、CPR 2、4、8、および 32) を評価しました。
結果は、圧縮率が低いほど説明可能性にプラスの影響があり、圧縮率が高いほどマイナスの効果があることを示しています。
さらに、知覚される説明可能性とモデルのパフォーマンスの両方を向上させるスイート スポットを特定することができました。

要約(オリジナル)

Modern, state-of-the-art Convolutional Neural Networks (CNNs) in computer vision have millions of parameters. Thus, explaining the complex decisions of such networks to humans is challenging. A technical approach to reduce CNN complexity is network pruning, where less important parameters are deleted. The work presented in this paper investigates whether this technical complexity reduction also helps with perceived explainability. To do so, we conducted a pre-study and two human-grounded experiments, assessing the effects of different pruning ratios on CNN explainability. Overall, we evaluated four different compression rates (i.e., CPR 2, 4, 8, and 32) with 37 500 tasks on Mechanical Turk. Results indicate that lower compression rates have a positive influence on explainability, while higher compression rates show negative effects. Furthermore, we were able to identify sweet spots that increase both the perceived explainability and the model’s performance.

arxiv情報

著者 David Weber,Florian Merkle,Pascal Schöttle,Stephan Schlögl
発行日 2023-02-17 13:50:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク