(U)NFV: Supervised and Unsupervised Neural Finite Volume Methods for Solving Hyperbolic PDEs

要約

(U)NFVを紹介します。NFVは、双曲線保存法則を解くための古典的な有限体積(FV)方法を一般化するモジュラーニューラルネットワークアーキテクチャです。
双曲線の部分微分方程式(PDE)は、特に物理的に関連するソリューションに衝撃と不連続性を含む保全法、特に保全法を解決するのが困難です。
FVメソッドは、数学的特性に広く使用されています:エントロピーソリューションへの収束、フロー保存、または全体的な変動が減少しますが、多くの場合、複雑な設定では精度と柔軟性がありません。
ニューラルの有限体積は、保全構造を保存しながら、拡張された空間的および時間的ステンシルを超える更新ルールを学習することにより、これらの制限に対処します。
これは、ソリューションデータ(NFV)に関する監視されたトレーニングと、弱い形の残留損失(UNFV)を介した監視されていないトレーニングの両方をサポートします。
一次保全法に適用される(U)NFVは、Godunovの方法よりも最大10倍低いエラーを達成し、ENO/WENOを上回り、不連続なGalerkinソルバーをはるかに複雑にします。
PDEと実験的な高速道路データの両方からのトラフィックモデリングの問題について、(U)NFVは、従来のFVアプローチよりも忠実度とスケーラビリティが大幅に高い非線形波のダイナミクスをキャプチャします。

要約(オリジナル)

We introduce (U)NFV, a modular neural network architecture that generalizes classical finite volume (FV) methods for solving hyperbolic conservation laws. Hyperbolic partial differential equations (PDEs) are challenging to solve, particularly conservation laws whose physically relevant solutions contain shocks and discontinuities. FV methods are widely used for their mathematical properties: convergence to entropy solutions, flow conservation, or total variation diminishing, but often lack accuracy and flexibility in complex settings. Neural Finite Volume addresses these limitations by learning update rules over extended spatial and temporal stencils while preserving conservation structure. It supports both supervised training on solution data (NFV) and unsupervised training via weak-form residual loss (UNFV). Applied to first-order conservation laws, (U)NFV achieves up to 10x lower error than Godunov’s method, outperforms ENO/WENO, and rivals discontinuous Galerkin solvers with far less complexity. On traffic modeling problems, both from PDEs and from experimental highway data, (U)NFV captures nonlinear wave dynamics with significantly higher fidelity and scalability than traditional FV approaches.

arxiv情報

著者 Nathan Lichtlé,Alexi Canesse,Zhe Fu,Hossein Nick Zinat Matin,Maria Laura Delle Monache,Alexandre M. Bayen
発行日 2025-05-29 17:39:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NA, G.1.8, math.NA パーマリンク