VideoPDE: Unified Generative PDE Solving via Video Inpainting Diffusion Models

要約

ビデオインペインティング拡散トランスモデルを使用して、部分微分方程式(PDE)を解くための統一されたフレームワークを提示します。
完全または部分的な観察下での順方向または逆問題の特殊な戦略を考案する既存の方法とは異なり、私たちのアプローチは、単一の柔軟な生成フレームワークの下でこれらのタスクを統合します。
具体的には、PDE解決を一般化されたインポインティングの問題としてリキャストします。たとえば、将来の状態の不足している時空情報を初期条件から推測するものとして、前方予測を扱います。
この目的のために、既知のデータの任意のパターンを条件として、時間と空間にわたって欠損値を推測するトランスベースのアーキテクチャを設計します。
私たちの方法では、階層モデリングを通じて計算効率を高めながら、微調整された高忠実度のインピンティングとコンディショニングのピクセル空間ビデオ拡散モデルを提案しています。
広範な実験では、ビデオのインペインティングベースの拡散モデルが、幅広いPDEと問題のセットアップにわたって正確で汎用性の高いソリューションを提供し、最先端のベースラインを上回ることが示されています。

要約(オリジナル)

We present a unified framework for solving partial differential equations (PDEs) using video-inpainting diffusion transformer models. Unlike existing methods that devise specialized strategies for either forward or inverse problems under full or partial observation, our approach unifies these tasks under a single, flexible generative framework. Specifically, we recast PDE-solving as a generalized inpainting problem, e.g., treating forward prediction as inferring missing spatiotemporal information of future states from initial conditions. To this end, we design a transformer-based architecture that conditions on arbitrary patterns of known data to infer missing values across time and space. Our method proposes pixel-space video diffusion models for fine-grained, high-fidelity inpainting and conditioning, while enhancing computational efficiency through hierarchical modeling. Extensive experiments show that our video inpainting-based diffusion model offers an accurate and versatile solution across a wide range of PDEs and problem setups, outperforming state-of-the-art baselines.

arxiv情報

著者 Edward Li,Zichen Wang,Jiahe Huang,Jeong Joon Park
発行日 2025-06-16 17:58:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク