E Pluribus Unum Interpretable Convolutional Neural Networks

要約

畳み込みニューラルネットワーク(CNN)モデルは、意思決定の透明性を求める社会の要請に応えられないため、ハイステーク・ドメインでの採用が阻まれている。これまで、設計上解釈可能なCNNモデルを開発するための方法論は増えてきている。しかし、そのようなモデルは、性能を維持したまま、人間の知覚に従った解釈を提供することができない。本論文では、EPU-CNN(E Pluribus Unum Interpretable CNN)と名付けた、本質的に解釈可能なCNNモデルをインスタンス化するための新規で一般的なフレームワークを用いて、これらの課題に取り組む。EPU-CNNはCNNサブネットワークから構成され、各サブネットワークは色やテクスチャなどの知覚的特徴を表現する入力画像の異なる表現を受信する。EPU-CNNモデルの出力は、分類予測とその解釈からなり、入力画像の異なる領域における知覚的特徴の相対的寄与の観点から構成される。EPU-CNNモデルは、一般に公開されている様々なデータセットと、寄贈されたベンチマークデータセットで広範囲に評価されている。医療データセットは、医療におけるリスクセンシティブな決定のためのEPU-CNNの適用性を示すために使用される。実験結果は、EPU-CNNモデルが、人間が知覚可能な解釈を提供しながら、他のCNNアーキテクチャと同等以上の分類性能を達成できることを示している。

要約(オリジナル)

The adoption of Convolutional Neural Network (CNN) models in high-stake domains is hindered by their inability to meet society’s demand for transparency in decision-making. So far, a growing number of methodologies have emerged for developing CNN models that are interpretable by design. However, such models are not capable of providing interpretations in accordance with human perception, while maintaining competent performance. In this paper, we tackle these challenges with a novel, general framework for instantiating inherently interpretable CNN models, named E Pluribus Unum Interpretable CNN (EPU-CNN). An EPU-CNN model consists of CNN sub-networks, each of which receives a different representation of an input image expressing a perceptual feature, such as color or texture. The output of an EPU-CNN model consists of the classification prediction and its interpretation, in terms of relative contributions of perceptual features in different regions of the input image. EPU-CNN models have been extensively evaluated on various publicly available datasets, as well as a contributed benchmark dataset. Medical datasets are used to demonstrate the applicability of EPU-CNN for risk-sensitive decisions in medicine. The experimental results indicate that EPU-CNN models can achieve a comparable or better classification performance than other CNN architectures while providing humanly perceivable interpretations.

arxiv情報

著者 George Dimas,Eirini Cholopoulou,Dimitris K. Iakovidis
発行日 2022-08-10 14:37:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: 68T07, 68T45, cs.AI, cs.CV, I.2.10 パーマリンク