Full Bayesian Significance Testing for Neural Networks

要約

有意性検定の目的は、観察を考慮して、母集団分布に関する命題が真実であるかどうかを判断することです。
ただし、従来の有意性検定では検定統計量の分布を導き出す必要があることが多く、複雑な非線形関係を扱うことができません。
この論文では、従来のアプローチの関係性の特徴付けにおける限界を克服するために、 \textit{n}FBST と呼ばれるニューラル ネットワークの完全ベイジアン有意性テストを実行することを提案します。
ベイジアン ニューラル ネットワークを利用して、非線形および多次元の関係を小さな誤差で適合させ、証拠値を計算することで難しい理論的導出を回避します。
さらに、\textit{n}FBST は、グローバルな重要性だけでなく、以前のテスト方法では焦点を当てなかったローカルおよびインスタンスごとの重要性もテストできます。
さらに、\textit{n}FBST は、Grad-\textit{n}FBST、LRP-\textit{n}FBST、DeepLIFT-\textit{n}FBST など、選択したメジャーに基づいて拡張できる一般的なフレームワークです。
、LIME-\textit{n}FBST。
私たちの方法の利点を示すために、シミュレートされたデータと実際のデータの両方でさまざまな実験が行われました。

要約(オリジナル)

Significance testing aims to determine whether a proposition about the population distribution is the truth or not given observations. However, traditional significance testing often needs to derive the distribution of the testing statistic, failing to deal with complex nonlinear relationships. In this paper, we propose to conduct Full Bayesian Significance Testing for neural networks, called \textit{n}FBST, to overcome the limitation in relationship characterization of traditional approaches. A Bayesian neural network is utilized to fit the nonlinear and multi-dimensional relationships with small errors and avoid hard theoretical derivation by computing the evidence value. Besides, \textit{n}FBST can test not only global significance but also local and instance-wise significance, which previous testing methods don’t focus on. Moreover, \textit{n}FBST is a general framework that can be extended based on the measures selected, such as Grad-\textit{n}FBST, LRP-\textit{n}FBST, DeepLIFT-\textit{n}FBST, LIME-\textit{n}FBST. A range of experiments on both simulated and real data are conducted to show the advantages of our method.

arxiv情報

著者 Zehua Liu,Zimeng Li,Jingyuan Wang,Yue He
発行日 2024-01-24 09:59:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク