要約
時間依存の部分微分方程式(PDE)の演算子学習は、近年急速な進歩を遂げており、複雑な時空ダイナミクスの効率的な近似を可能にしています。
ただし、ほとんどの既存の方法は、ロールアウト中に固定時間のステップサイズに依存しているため、さまざまな時間的複雑さに適応する能力が制限され、多くの場合エラーの蓄積につながります。
このギャップに対処するために、適応段階のステップサイズで連続時間予測を生成する新しいオペレーター学習フレームワークであるニューラルテイラー拡張(Tante)を備えた時間適応トランスを提案します。
Tanteは、ニューラルネットワークが高次の時間誘導体と局所収束半径の両方を学習する現在の状態でテイラー拡張を実行することにより、将来の状態を予測します。
これにより、モデルはソリューションの局所的な動作に基づいてロールアウトを動的に調整し、累積エラーを減らし、計算効率を改善できます。
幅広いPDEベンチマークにわたるタンテの有効性を実証し、固定ステップベースラインと比較して優れた精度と適応性を達成し、推論で10〜50%の精度ゲインと30〜80%のスピードアップを実現します。
要約(オリジナル)
Operator learning for time-dependent partial differential equations (PDEs) has seen rapid progress in recent years, enabling efficient approximation of complex spatiotemporal dynamics. However, most existing methods rely on fixed time step sizes during rollout, which limits their ability to adapt to varying temporal complexity and often leads to error accumulation. To address this gap, we propose the Time-Adaptive Transformer with Neural Taylor Expansion (TANTE), a novel operator-learning framework that produces continuous-time predictions with adaptive step sizes. TANTE predicts future states by performing a Taylor expansion at the current state, where neural networks learn both the higher-order temporal derivatives and the local radius of convergence. This allows the model to dynamically adjust its rollout based on the local behavior of the solution, thereby reducing cumulative error and improving computational efficiency. We demonstrate the effectiveness of TANTE across a wide range of PDE benchmarks, achieving superior accuracy and adaptability compared to fixed-step baselines, delivering accuracy gains of 10-50 % and speed-ups of 30-80 % at inference.
arxiv情報
著者 | Zhikai Wu,Sifan Wang,Shiyang Zhang,Sizhuang He,Min Zhu,Anran Jiao,Lu Lu,David van Dijk |
発行日 | 2025-05-16 16:27:25+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google