Smoothed Distance Kernels for MMDs and Applications in Wasserstein Gradient Flows

要約

負の距離カーネル$ k(x、y):= – \ | x -y \ | $は、統計における最大平均不一致(MMD)の定義で使用され、さまざまなアプリケーションで好ましい数値結果につながりました。
特に、高次元カーネル合計を処理するためのいわゆるスライス技術は、距離カーネルの単純なパラメーターのない構造から利益を得ます。
ただし、$ x = y $の滑らかさのため、古典的な理論的結果のほとんどは
対応するMMD関数のwasserstein勾配流については、もはや当てはまらない。
このホワイトペーパーでは、負の距離カーネルの好ましい特性を条件付きで正の明確であると保持する新しいカーネルを提案します。
私たちの構造は、絶対値関数の単純な1Dスムージング手順に基づいています。
数値結果は、新しいカーネルが勾配降下法の負の距離カーネルと同様にうまく機能することを示していますが、現在は理論的な保証があります。

要約(オリジナル)

Negative distance kernels $K(x,y) := – \|x-y\|$ were used in the definition of maximum mean discrepancies (MMDs) in statistics and lead to favorable numerical results in various applications. In particular, so-called slicing techniques for handling high-dimensional kernel summations profit from the simple parameter-free structure of the distance kernel. However, due to its non-smoothness in $x=y$, most of the classical theoretical results, e.g. on Wasserstein gradient flows of the corresponding MMD functional do not longer hold true. In this paper, we propose a new kernel which keeps the favorable properties of the negative distance kernel as being conditionally positive definite of order one with a nearly linear increase towards infinity and a simple slicing structure, but is Lipschitz differentiable now. Our construction is based on a simple 1D smoothing procedure of the absolute value function followed by a Riemann-Liouville fractional integral transform. Numerical results demonstrate that the new kernel performs similarly well as the negative distance kernel in gradient descent methods, but now with theoretical guarantees.

arxiv情報

著者 Nicolaj Rux,Michael Quellmalz,Gabriele Steidl
発行日 2025-04-10 14:57:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.FA, math.PR, stat.ML パーマリンク