要約
タイトル:モノトニックニューラルネットワークの基数最小説明
要約:
– ニューラルモデルの予測を説明するための厳密な形式的保証を提供する説明手法に、仮説的(それぞれ対照的)手法がある。
– これらの手法は、与えられた予測を保持するために十分な入力特徴の最小部分集合を計算することを目的としている。
– 相応しい決定問題は、しかし、解決困難であることが知られている。
– この論文では、単調な関数を実装するニューラルモデルに焦点を当てて、解決の可能性を探る。
– 関連する決定問題はそれでも解決困難であるが、活性化関数がどこでも連続であり、ほとんどどこでも微分可能であることを加えると、貪欲アルゴリズムによって多項式時間で解決できることを示すことができる。
– 実験では、アルゴリズムの性能が良好であることが示唆されている。
要約(オリジナル)
In recent years, there has been increasing interest in explanation methods for neural model predictions that offer precise formal guarantees. These include abductive (respectively, contrastive) methods, which aim to compute minimal subsets of input features that are sufficient for a given prediction to hold (respectively, to change a given prediction). The corresponding decision problems are, however, known to be intractable. In this paper, we investigate whether tractability can be regained by focusing on neural models implementing a monotonic function. Although the relevant decision problems remain intractable, we can show that they become solvable in polynomial time by means of greedy algorithms if we additionally assume that the activation functions are continuous everywhere and differentiable almost everywhere. Our experiments suggest favourable performance of our algorithms.
arxiv情報
著者 | Ouns El Harzli,Bernardo Cuenca Grau,Ian Horrocks |
発行日 | 2023-05-02 14:46:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI