要約
機械学習モデルの意思決定プロセスを理解することで、モデルの障害の背後にあるタスク、データ、および理由に関する貴重な洞察が得られます。
この作業では、入力画像のインスタンスごとのスパース化を通じて本質的に解釈可能な予測を実行する方法を提案します。
人間の知覚とスパース化を揃えるために、ピクセルレベルではなく、意味的に意味のあるピクセル領域の空間でマスキングを学びます。
さらに、各インスタンスに必要なスパース性を動的に決定する明示的な方法を紹介します。
私たちは、本質的に解釈可能な分類器が最先端のベンチマークよりも有意義で人間的に理解しやすい予測を生成することを、半合成および自然な画像データセットについて経験的に示します。
要約(オリジナル)
Understanding the decision-making process of machine learning models provides valuable insights into the task, the data, and the reasons behind a model’s failures. In this work, we propose a method that performs inherently interpretable predictions through the instance-wise sparsification of input images. To align the sparsification with human perception, we learn the masking in the space of semantically meaningful pixel regions rather than on pixel-level. Additionally, we introduce an explicit way to dynamically determine the required level of sparsity for each instance. We show empirically on semi-synthetic and natural image datasets that our inherently interpretable classifier produces more meaningful, human-understandable predictions than state-of-the-art benchmarks.
arxiv情報
著者 | Moritz Vandenhirtz,Julia E. Vogt |
発行日 | 2025-05-09 12:34:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google