Using Perturbation to Improve Goodness-of-Fit Tests based on Kernelized Stein Discrepancy

要約

タイトル:カーネル化スタインの不一致法に基づく適合度検定の改善のための摂動の使用
要約:カーネル化スタインの不一致(KSD)は、ベイズ解析のように、ターゲット分布が未知の正規化因子を持つ場合でも適用できるスコアベースの不一致であり、適合度検定で広く使用されています。ターゲットと代替分布が同じようによく分離されたモードを持つが、混合比が異なる場合、KSDテストは理論的にも実証的にも低いパワーに陥る可能性があることを示しました。我々は、観察されたサンプルをマルコフ遷移カーネルを介して摂動することを提案し、この摂動に関してターゲット分布が不変であるため、摂動されたサンプルでKSDテストを適用できるようにします。適切に選択されたカーネルを用いた場合、この提案手法はKSDテストよりもかなり高いパワーを発揮することを数値的に示します。

– KSDはベイズ解析などで使用される、未知の正規化因子を持つターゲット分布と比較して適合度を検定するスコアベースの不一致である。
– KSDテストは、ターゲットと代替分布が、混合比が異なるにもかかわらず同じよく分離されたモードを持つ場合に低いパワーに陥る可能性がある。
– マルコフ遷移カーネルを使用して観測サンプルを摂動し、ターゲット分布が不変であるようにする手法を提案することで、この問題を解決することができる。
– 提案手法は、KSDテストよりも高いパワーを発揮することを数値的に示すことができる。

要約(オリジナル)

Kernelized Stein discrepancy (KSD) is a score-based discrepancy widely used in goodness-of-fit tests. It can be applied even when the target distribution has an unknown normalising factor, such as in Bayesian analysis. We show theoretically and empirically that the KSD test can suffer from low power when the target and the alternative distribution have the same well-separated modes but differ in mixing proportions. We propose to perturb the observed sample via Markov transition kernels, with respect to which the target distribution is invariant. This allows us to then employ the KSD test on the perturbed sample. We provide numerical evidence that with suitably chosen kernels the proposed approach can lead to a substantially higher power than the KSD test.

arxiv情報

著者 Xing Liu,Andrew B. Duncan,Axel Gandy
発行日 2023-04-28 11:13:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: 62-08 (Primary), cs.LG, G.3, stat.ME, stat.ML パーマリンク