要約
この論文では、生成モデルを説明、強化、設計するための数学的フレームワークとしての平均場ゲーム (MFG) の多用途性を実証します。
生成モデリング コミュニティでは、さまざまな流れおよび拡散ベースの生成モデルには共通の基礎構造と相互関係があるという認識が浸透しています。
私たちは、MFG と、連続時間正規化流れ、スコアベースのモデル、ワッサーシュタイン勾配流れなどの主要クラスの流れおよび拡散ベースの生成モデルとの間の接続を確立します。
これら 3 つのクラスの生成モデルは、粒子ダイナミクスとコスト関数のさまざまな選択を通じて導出されます。
さらに、関連する MFG の最適性条件 (前後結合非線形偏微分方程式 (PDE) のセット) を研究することで、各生成モデルの数学的構造と特性を研究します。
したがって、MFG の理論により、非線形偏微分方程式の理論を通じて生成モデルの研究が可能になります。
この観点を通じて、正規化フローの適切なポーズと構造を調査し、スコアベースの生成モデリングの数学的構造を解明し、ワッサーシュタイン勾配フローの平均場ゲーム定式化を導き出します。
アルゴリズムの観点から見ると、MFG の最適性条件により、広範なクラスの生成モデルのトレーニングを強化するために HJB 正則化機能を導入することもできます。
特に、標準的な SGM よりも性能が向上した Hamilton-Jacobi-Bellman 正規化 SGM を提案し、実証します。
私たちはこのフレームワークを、生成モデルの実験と発明の新しい道を明らかにするためのプラットフォームとして機能する MFG ラボラトリーとして提供します。
この研究室は、適切に設定された生成モデリングの定式化を数多く生み出し、数値ツールやアルゴリズム ツールを開発するための一貫した理論的枠組みを提供します。
要約(オリジナル)
In this paper, we demonstrate the versatility of mean-field games (MFGs) as a mathematical framework for explaining, enhancing, and designing generative models. There is a pervasive sense in the generative modeling community that the various flow and diffusion-based generative models have some common foundational structure and interrelationships. We establish connections between MFGs and major classes of flow and diffusion-based generative models including continuous-time normalizing flows, score-based models, and Wasserstein gradient flows. We derive these three classes of generative models through different choices of particle dynamics and cost functions. Furthermore, we study the mathematical structure and properties of each generative model by studying their associated MFG’s optimality condition, which is a set of coupled forward-backward nonlinear partial differential equations (PDEs). The theory of MFGs, therefore, enables the study of generative models through the theory of nonlinear PDEs. Through this perspective, we investigate the well-posedness and structure of normalizing flows, unravel the mathematical structure of score-based generative modeling, and derive a mean-field game formulation of the Wasserstein gradient flow. From an algorithmic perspective, the optimality conditions of MFGs also allow us to introduce HJB regularizers for enhanced training of a broad class of generative models. In particular, we propose and demonstrate an Hamilton-Jacobi-Bellman regularized SGM with improved performance over standard SGMs. We present this framework as an MFG laboratory which serves as a platform for revealing new avenues of experimentation and invention of generative models. This laboratory will give rise to a multitude of well-posed generative modeling formulations and will provide a consistent theoretical framework upon which numerical and algorithmic tools may be developed.
arxiv情報
著者 | Benjamin J. Zhang,Markos A. Katsoulakis |
発行日 | 2023-05-23 15:30:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google