Neural Wasserstein Gradient Flows for Maximum Mean Discrepancies with Riesz Kernels

要約

非平滑なRieszカーネルを持つ最大平均不一致(MMD)関数のWasserstein勾配流は、特異測度が絶対連続測度になったり、その逆になったりする豊かな構造を示している。本論文では、このような流れの理解に貢献する。Jordan、Kinderlehrer、OttoのWasserstein勾配流を計算するための後方スキームと、いわゆるWasserstein最急降下流のための前方スキームをニューラルネットワーク(NN)で近似することを提案します。我々は、絶対連続的な尺度に限定することができないので、通常の輸送マップや速度場の代わりに、輸送計画や速度計画を扱わなければならない。そこで、適切な損失関数を用いて学習される生成NNによって、両計画の分解を近似的に行う。両ニューラルスキームの品質を評価するために、相互作用エネルギーに関するベンチマークを行う。ここでは、ディラック測度から始まるWassersteinスキームの解析式を提供し、時間ステップサイズがゼロになるにつれて収束することを示す。最後に、我々のニューラルMMDフローを数値例で説明する。

要約(オリジナル)

Wasserstein gradient flows of maximum mean discrepancy (MMD) functionals with non-smooth Riesz kernels show a rich structure as singular measures can become absolutely continuous ones and conversely. In this paper we contribute to the understanding of such flows. We propose to approximate the backward scheme of Jordan, Kinderlehrer and Otto for computing such Wasserstein gradient flows as well as a forward scheme for so-called Wasserstein steepest descent flows by neural networks (NNs). Since we cannot restrict ourselves to absolutely continuous measures, we have to deal with transport plans and velocity plans instead of usual transport maps and velocity fields. Indeed, we approximate the disintegration of both plans by generative NNs which are learned with respect to appropriate loss functions. In order to evaluate the quality of both neural schemes, we benchmark them on the interaction energy. Here we provide analytic formulas for Wasserstein schemes starting at a Dirac measure and show their convergence as the time step size tends to zero. Finally, we illustrate our neural MMD flows by numerical examples.

arxiv情報

著者 Fabian Altekrüger,Johannes Hertrich,Gabriele Steidl
発行日 2023-06-02 15:16:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, math.OC, math.PR パーマリンク