Nyström Kernel Stein Discrepancy

要約

カーネル手法は、データ サイエンスや統計で最も成功しているアプローチの多くを支えており、情報を損失することなく再現カーネル ヒルベルト空間の要素として確率測度を表すことができます。
最近、Stein の手法とカーネル技術を組み合わせたカーネル Stein 不一致 (KSD) が大きな注目を集めました。
Stein 演算子を使用すると、KSD では、乗法定数までのターゲット分布を知るだけで十分な強力な適合度テストを構築できます。
ただし、典型的な U および V 統計ベースの KSD 推定器は、二次関数の実行時の複雑さが問題となり、大規模な設定での適用が妨げられます。
この研究では、$n$ サンプルと $m\ll n$ Nystr に対してランタイム $\mathcal O\!\left(mn+m^3\right)$ を使用した Nystr\’om ベースの KSD アクセラレーションを提案します。
\’om ポイント — 、古典的なサブガウス仮定を使用して null の下での $\sqrt{n}$ の一貫性を示し、一連のベンチマークでの適合度テストへの適用可能性を示します。

要約(オリジナル)

Kernel methods underpin many of the most successful approaches in data science and statistics, and they allow representing probability measures as elements of a reproducing kernel Hilbert space without loss of information. Recently, the kernel Stein discrepancy (KSD), which combines Stein’s method with kernel techniques, gained considerable attention. Through the Stein operator, KSD allows the construction of powerful goodness-of-fit tests where it is sufficient to know the target distribution up to a multiplicative constant. However, the typical U- and V-statistic-based KSD estimators suffer from a quadratic runtime complexity, which hinders their application in large-scale settings. In this work, we propose a Nystr\’om-based KSD acceleration — with runtime $\mathcal O\!\left(mn+m^3\right)$ for $n$ samples and $m\ll n$ Nystr\’om points — , show its $\sqrt{n}$-consistency under the null with a classical sub-Gaussian assumption, and demonstrate its applicability for goodness-of-fit testing on a suite of benchmarks.

arxiv情報

著者 Florian Kalinke,Zoltan Szabo,Bharath K. Sriperumbudur
発行日 2024-06-12 16:50:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: (Primary), cs.LG, G.3, math.ST, stat.ML, stat.TH パーマリンク