A mean-field games laboratory for generative modeling

要約

生成モデルを説明、強化、設計するための数学的フレームワークとしての平均場ゲーム (MFG) の多用途性を実証します。
生成フローでは、各粒子 (生成されたサンプル) がそのシミュレートされたパス上の損失関数を最小化することを目的としたラグランジュ定式化が使用されます。
ただし、損失は他の粒子の経路に依存するため、粒子の集団間で競合が発生します。
この競争の漸近的な動作により、平均場ゲームが生じます。
私たちは、MFG と、連続時間正規化フロー、スコアベース生成モデル (SGM)、ワッサーシュタイン勾配フローなどの主要クラスの生成フローおよび拡散との間の接続を確立します。
さらに、関連する MFG の最適性条件 (一連の前後方向結合非線形偏微分方程式) を研究することにより、各生成モデルの数学的特性を研究します。
MFG 最適性条件によって記述される数学的構造は、生成フローの誘導バイアスを特定します。
私たちは、正規化流れの適切な姿勢と構造を調査し、SGM の数学的構造を解明し、Wasserstein 勾配流れの MFG 定式化を導き出します。
アルゴリズムの観点から見ると、最適性条件により、生成モデルのトレーニングを強化するための Hamilton-Jacobi-Bellman (HJB) 正則化が得られます。
特に、標準的な SGM よりもパフォーマンスが向上した HJB 正規化 SGM を提案し、実証します。
私たちはこのフレームワークを、生成モデルの実験と発明の新しい道を明らかにするためのプラットフォームとして機能する MFG ラボラトリーとして提供します。

要約(オリジナル)

We demonstrate the versatility of mean-field games (MFGs) as a mathematical framework for explaining, enhancing, and designing generative models. In generative flows, a Lagrangian formulation is used where each particle (generated sample) aims to minimize a loss function over its simulated path. The loss, however, is dependent on the paths of other particles, which leads to a competition among the population of particles. The asymptotic behavior of this competition yields a mean-field game. We establish connections between MFGs and major classes of generative flows and diffusions including continuous-time normalizing flows, score-based generative models (SGM), and Wasserstein gradient flows. Furthermore, we study the mathematical properties of each generative model by studying their associated MFG’s optimality condition, which is a set of coupled forward-backward nonlinear partial differential equations. The mathematical structure described by the MFG optimality conditions identifies the inductive biases of generative flows. We investigate the well-posedness and structure of normalizing flows, unravel the mathematical structure of SGMs, and derive a MFG formulation of Wasserstein gradient flows. From an algorithmic perspective, the optimality conditions yields Hamilton-Jacobi-Bellman (HJB) regularizers for enhanced training of generative models. In particular, we propose and demonstrate an HJB-regularized SGM with improved performance over standard SGMs. We present this framework as an MFG laboratory which serves as a platform for revealing new avenues of experimentation and invention of generative models.

arxiv情報

著者 Benjamin J. Zhang,Markos A. Katsoulakis
発行日 2023-10-24 17:21:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク