Targeted Separation and Convergence with Kernel Discrepancies

要約

カーネル スタイン不一致 (KSD) のような最大平均不一致 (MMD) は、仮説検定、サンプラーの選択、分布近似、変分推論などの幅広いアプリケーションの中心となるようになりました。
各設定において、これらのカーネルベースの不一致尺度は、(i) ターゲット P を他の確率尺度から分離するため、または (ii) P への弱い収束を制御するために必要です。この記事では、(i) を保証するための新しい十分条件と必要条件を導き出します。
および(ii)。
分離可能な計量空間上の MMD の場合、Bochner の埋め込み可能なメジャーを分離するカーネルを特徴付け、すべてのメジャーを非境界カーネルで分離し、有界カーネルで収束を制御するための単純な条件を導入します。
$\mathbb{R}^d$ でのこれらの結果を使用して、KSD の分離と収束制御の既知の条件を大幅に拡張し、P への弱い収束を正確に計量化することが知られている最初の KSD を開発します。その過程で、次の意味を強調します。
仮説の検証、サンプル品質の測定と改善、および Stein 変分勾配降下法によるサンプリングの結果。

要約(オリジナル)

Maximum mean discrepancies (MMDs) like the kernel Stein discrepancy (KSD) have grown central to a wide range of applications, including hypothesis testing, sampler selection, distribution approximation, and variational inference. In each setting, these kernel-based discrepancy measures are required to (i) separate a target P from other probability measures or even (ii) control weak convergence to P. In this article we derive new sufficient and necessary conditions to ensure (i) and (ii). For MMDs on separable metric spaces, we characterize those kernels that separate Bochner embeddable measures and introduce simple conditions for separating all measures with unbounded kernels and for controlling convergence with bounded kernels. We use these results on $\mathbb{R}^d$ to substantially broaden the known conditions for KSD separation and convergence control and to develop the first KSDs known to exactly metrize weak convergence to P. Along the way, we highlight the implications of our results for hypothesis testing, measuring and improving sample quality, and sampling with Stein variational gradient descent.

arxiv情報

著者 Alessandro Barp,Carl-Johann Simon-Gabriel,Mark Girolami,Lester Mackey
発行日 2023-12-06 18:09:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.ST, stat.ML, stat.TH パーマリンク