Physics-Informed Inference Time Scaling via Simulation-Calibrated Scientific Machine Learning

要約

高次元の部分微分方程式(PDE)は、量子化学から経済学や財政に至るまでの分野全体に大きな計算上の課題をもたらします。
科学機械学習(SCIML)技術はおおよそのソリューションを提供しますが、多くの場合、バイアスに苦しみ、重要な物理的洞察を無視します。
言語モデルの推論時間スケーリング戦略に触発され、物理的法則を施行することにより推論中にSCIML予測を動的に洗練および削除する物理学に基づいたフレームワークであるシミュレーションキャリブレーションされた科学機械学習(SCASML)を提案します。
SCASMLレバレッジは、系統的エラーを定量化し、Feynman-KACおよびElworthy-Bismut-LI式に基づいてモンテカルロソルバーを使用して、予測を動的に修正する新しい物理的法則を導き出しました。
数値分析と理論分析の両方で、計算最適な推論方法を介して収束速度が強化されていることが確認されます。
私たちの数値実験は、SCASMLが基本代理モデルと比較して誤差を20〜50%減らすことを示しており、推論中に高次元PDEの近似溶液を改善する最初のアルゴリズムとして確立されています。
Code of Scasmlはhttps://github.com/francis-fan-create/scasmlで入手できます。

要約(オリジナル)

High-dimensional partial differential equations (PDEs) pose significant computational challenges across fields ranging from quantum chemistry to economics and finance. Although scientific machine learning (SciML) techniques offer approximate solutions, they often suffer from bias and neglect crucial physical insights. Inspired by inference-time scaling strategies in language models, we propose Simulation-Calibrated Scientific Machine Learning (SCaSML), a physics-informed framework that dynamically refines and debiases the SCiML predictions during inference by enforcing the physical laws. SCaSML leverages derived new physical laws that quantifies systematic errors and employs Monte Carlo solvers based on the Feynman-Kac and Elworthy-Bismut-Li formulas to dynamically correct the prediction. Both numerical and theoretical analysis confirms enhanced convergence rates via compute-optimal inference methods. Our numerical experiments demonstrate that SCaSML reduces errors by 20-50% compared to the base surrogate model, establishing it as the first algorithm to refine approximated solutions to high-dimensional PDE during inference. Code of SCaSML is available at https://github.com/Francis-Fan-create/SCaSML.

arxiv情報

著者 Zexi Fan,Yan Sun,Shihao Yang,Yiping Lu
発行日 2025-04-25 15:12:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.NA, math.NA, math.PR, stat.ML パーマリンク