Nyström Kernel Stein Discrepancy

要約

カーネル法はデータ科学や統計学で最も成功したアプローチの多くを支えており、情報を失うことなく確率測度を再現カーネル・ヒルベルト空間の要素として表現することができる。最近、Steinの手法とカーネル手法の柔軟性を組み合わせたカーネル・スタイン不一致(KSD)が注目されている。シュタイン演算子を通して、KSDは、乗法定数までの対象分布がわかれば十分な強力な適合度検定の構築を可能にします。しかしながら、典型的なU統計量およびV統計量に基づくKSD推定量は、2次関数的な実行時間の複雑さに悩まされており、大規模な設定での適用を妨げている。本研究では、Nystr’omに基づくKSD高速化を提案し、$n$サンプルと$mll n$ Nystr’om点の実行時間$mathcal Oleft(mn+m^3 }right)$を示し、古典的なsub-Gaussian仮定と$sqrt{n}$の整合性を示し、一連のベンチマークで適合度検定への適用性を実証する。

要約(オリジナル)

Kernel methods underpin many of the most successful approaches in data science and statistics, and they allow representing probability measures as elements of a reproducing kernel Hilbert space without loss of information. Recently, the kernel Stein discrepancy (KSD), which combines Stein’s method with the flexibility of kernel techniques, gained considerable attention. Through the Stein operator, KSD allows the construction of powerful goodness-of-fit tests where it is sufficient to know the target distribution up to a multiplicative constant. However, the typical U- and V-statistic-based KSD estimators suffer from a quadratic runtime complexity, which hinders their application in large-scale settings. In this work, we propose a Nystr\’om-based KSD acceleration — with runtime $\mathcal O\left(mn+m^3\right)$ for $n$ samples and $m\ll n$ Nystr\’om points — , show its $\sqrt{n}$-consistency with a classical sub-Gaussian assumption, and demonstrate its applicability for goodness-of-fit testing on a suite of benchmarks.

arxiv情報

著者 Florian Kalinke,Zoltan Szabo,Bharath K. Sriperumbudur
発行日 2024-11-01 17:04:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: (Primary), cs.LG, G.3, math.ST, stat.ML, stat.TH パーマリンク