要約
生成モデリングの最近の進歩、特に拡散モデルとフローマッチング – は、画像やビデオなどの個別のデータを合成することで顕著な成功を収めています。
ただし、関心のある量は複雑な物理的法則によって支配されている継続的な機能であるため、これらのモデルを物理的なアプリケーションに適応させることは依然として困難です。
ここでは、関数空間で生成されたモデリングのための新しいフレームワークである$ \ textBf {Fundiff} $を紹介します。
Fundiffは、潜在的な拡散プロセスと関数の自動エンコーダーアーキテクチャを組み合わせて、さまざまな離散化で入力関数を処理し、任意の場所で評価可能な連続関数を生成し、物理的なプライアをシームレスに組み込みます。
これらの事前は、建築的制約または物理学に基づいた損失関数を通じて強制され、生成されたサンプルが基本的な物理法則を満たすことを保証します。
我々は、機能空間の密度推定のミニマックス最適性保証を理論的に確立し、拡散ベースの推定器が適切な規則性条件下で最適な収束速度を達成することを示しています。
流体のダイナミクスと固体力学における多様なアプリケーションにわたるファンディフの実際的な有効性を実証します。
経験的な結果は、我々の方法がターゲット分布に高い忠実度を持つ物理的に一貫したサンプルを生成し、ノイズ状と低解像度のデータに堅牢性を示すことを示しています。
コードとデータセットは、https://github.com/sifanexisted/fundiffで公開されています。
要約(オリジナル)
Recent advances in generative modeling — particularly diffusion models and flow matching — have achieved remarkable success in synthesizing discrete data such as images and videos. However, adapting these models to physical applications remains challenging, as the quantities of interest are continuous functions governed by complex physical laws. Here, we introduce $\textbf{FunDiff}$, a novel framework for generative modeling in function spaces. FunDiff combines a latent diffusion process with a function autoencoder architecture to handle input functions with varying discretizations, generate continuous functions evaluable at arbitrary locations, and seamlessly incorporate physical priors. These priors are enforced through architectural constraints or physics-informed loss functions, ensuring that generated samples satisfy fundamental physical laws. We theoretically establish minimax optimality guarantees for density estimation in function spaces, showing that diffusion-based estimators achieve optimal convergence rates under suitable regularity conditions. We demonstrate the practical effectiveness of FunDiff across diverse applications in fluid dynamics and solid mechanics. Empirical results show that our method generates physically consistent samples with high fidelity to the target distribution and exhibits robustness to noisy and low-resolution data. Code and datasets are publicly available at https://github.com/sifanexisted/fundiff.
arxiv情報
著者 | Sifan Wang,Zehao Dou,Tong-Rui Liu,Lu Lu |
発行日 | 2025-06-09 16:19:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google