Transforming gradient-based techniques into interpretable methods

要約

xAI 技術による畳み込みニューラル ネットワーク (CNN) の説明では、解釈に課題が生じることがよくあります。
入力特徴、特に画像から抽出されたピクセルの固有の複雑さにより、複雑な相関関係が生じます。
Integrated Gradients (IG) に代表される勾配ベースの方法論は、これらの機能の重要性を効果的に実証します。
それにもかかわらず、これらの説明を画像に変換すると、多くの場合、かなりのノイズが生じます。
現在、勾配ベースの技術をサポートするフレームワークとして GAD (Gradient Artificial Distancing) を導入しています。
その主な目的は、階級間の区別を確立することで影響力のある地域を強調することです。
GAD の本質は、視覚化中の分析範囲を制限し、その結果画像ノイズを低減することです。
遮蔽された画像に関する実証的調査により、この方法論によって特定された領域が実際にクラスの区別を促進する上で極めて重要な役割を果たしていることが実証されました。

要約(オリジナル)

The explication of Convolutional Neural Networks (CNN) through xAI techniques often poses challenges in interpretation. The inherent complexity of input features, notably pixels extracted from images, engenders complex correlations. Gradient-based methodologies, exemplified by Integrated Gradients (IG), effectively demonstrate the significance of these features. Nevertheless, the conversion of these explanations into images frequently yields considerable noise. Presently, we introduce GAD (Gradient Artificial Distancing) as a supportive framework for gradient-based techniques. Its primary objective is to accentuate influential regions by establishing distinctions between classes. The essence of GAD is to limit the scope of analysis during visualization and, consequently reduce image noise. Empirical investigations involving occluded images have demonstrated that the identified regions through this methodology indeed play a pivotal role in facilitating class differentiation.

arxiv情報

著者 Caroline Mazini Rodrigues,Nicolas Boutry,Laurent Najman
発行日 2024-05-15 08:52:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク