A mean-field games laboratory for generative modeling

要約

タイトル:生成モデリングのための平均場ゲームの実験室

要約:

– 平均場ゲーム(MFG)は、生成モデルの説明、強化、および設計の数学的枠組みとしての汎用性が示されている。
– 様々なフローと拡散ベースの生成モデルには、基礎的な共通構造と相互関係があるという普遍的な感覚がある。
– MFGと、連続時間正規化フロー、スコアベースのモデル、Wasserstein勾配フローという主要なフローと拡散ベースの生成モデルの間のつながりを確立する。
– 粒子ダイナミクスとコスト関数の異なる選択により、これら3つの生成モデルを導出する。
– さらに、MFGの最適性条件を研究することで、各生成モデルの数学的構造と特性を研究することができる。この条件は、結合された非線形偏微分方程式(PDE)のセットである。
– MFGの理論により、非線形PDEの理論を通じて生成モデルの研究が可能となる。
– この視点から、正規化フローの適切性と構造を調べ、スコアベースの生成モデリングの数学的構造を明らかにし、Wasserstein勾配フローの平均場ゲーム形式を導出する。
– アルゴリズムの観点から、MFGの最適性条件は、HJB正則化子を導入して、より広範な生成モデルのトレーニングを強化するために使用できる。
– このフレームワークをMFGラボとして示し、生成モデルの新しい実験や発明の新しい可能性が開けるプラットフォームとなる。この実験室により、多様なきちんとした生成モデリング定式化が生まれ、数値的およびアルゴリズムツールが開発される一貫した理論的枠組みが提供される。

要約(オリジナル)

In this paper, we demonstrate the versatility of mean-field games (MFGs) as a mathematical framework for explaining, enhancing, and designing generative models. There is a pervasive sense in the generative modeling community that the various flow and diffusion-based generative models have some foundational common structure and interrelationships. We establish connections between MFGs and major classes of flow and diffusion-based generative models including continuous-time normalizing flows, score-based models, and Wasserstein gradient flows. We derive these three classes of generative models through different choices of particle dynamics and cost functions. Furthermore, we study the mathematical structure and properties of each generative model by studying their associated MFG’s optimality condition, which is a set of coupled nonlinear partial differential equations (PDEs). The theory of MFGs, therefore, enables the study of generative models through the theory of nonlinear PDEs. Through this perspective, we investigate the well-posedness and structure of normalizing flows, unravel the mathematical structure of score-based generative modeling, and derive a mean-field game formulation of the Wasserstein gradient flow. From an algorithmic perspective, the optimality conditions of MFGs also allow us to introduce HJB regularizers for enhanced training a broader class of generative models. We present this framework as an MFG laboratory which serves as a platform for revealing new avenues of experimentation and invention of generative models. This laboratory will give rise to a multitude of well-posed generative modeling formulations, providing a consistent theoretical framework upon which numerical and algorithmic tools may be developed.

arxiv情報

著者 Benjamin J. Zhang,Markos A. Katsoulakis
発行日 2023-04-27 03:19:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG, stat.ML パーマリンク