要約
我々は、偏導関数を学習することで物理システムをモデル化する教師ありアプローチである導関数学習(DERL)を提案する。また、DERLを活用し、事前学習済みモデルから学習済みモデルへ効果的に知識を転送する蒸留プロトコルを設計することで、物理モデルを段階的に構築する。経験的導関数を用いた場合でも、基礎となる物理法則と矛盾することなく、真の物理システムを学習できることを理論的に保証する。DERLは、ODEを未知の初期条件に、パラメトリックPDEを未知のパラメータに一般化する際に、最先端の手法を凌駕する性能を発揮する。最後に、DERLに基づき、物理領域の新しい部分やPDEパラメータの新しい範囲に拡張することで、モデル間で物理的知識を伝達する方法を提案する。これは、物理モデルを多段階でインクリメンタルに構築する最初の試みであると考える。
要約(オリジナル)
We propose Derivative Learning (DERL), a supervised approach that models physical systems by learning their partial derivatives. We also leverage DERL to build physical models incrementally, by designing a distillation protocol that effectively transfers knowledge from a pre-trained to a student model. We provide theoretical guarantees that our approach can learn the true physical system, being consistent with the underlying physical laws, even when using empirical derivatives. DERL outperforms state-of-the-art methods in generalizing an ODE to unseen initial conditions and a parametric PDE to unseen parameters. We finally propose a method based on DERL to transfer physical knowledge across models by extending them to new portions of the physical domain and new range of PDE parameters. We believe this is the first attempt at building physical models incrementally in multiple stages.
arxiv情報
| 著者 | Alessandro Trenta,Andrea Cossu,Davide Bacciu |
| 発行日 | 2025-05-02 17:02:00+00:00 |
| arxivサイト | arxiv_id(pdf) |