Self-test loss functions for learning weak-form operators and gradient flows

要約

損失関数の構築は、特にテスト関数を適切に選択する必要があるため、偏微分方程式や勾配フローの弱形式演算子を含むデータ駆動型モデリングにおいて大きな課題となります。
私たちは、特にオペレーターが未知数に線形的に依存する場合に向けて、未知のパラメーターに依存するテスト関数を採用するセルフテスト損失関数を導入することで、この課題に対処します。
提案された自己テスト損失関数は、勾配流のエネルギーを保存し、確率微分方程式の予想される対数尤度比と一致します。
重要なのは、これが二次関数であるため、逆問題の識別可能性と適切な設定の理論的分析が容易になると同時に、効率的なパラメトリックまたはノンパラメトリック回帰アルゴリズムにもつながることです。
これは計算が簡単で、低次の導関数のみを必要とするか、完全に導関数を必要とせず、数値実験によりノイズの多い離散データに対する堅牢性が実証されています。

要約(オリジナル)

The construction of loss functions presents a major challenge in data-driven modeling involving weak-form operators in PDEs and gradient flows, particularly due to the need to select test functions appropriately. We address this challenge by introducing self-test loss functions, which employ test functions that depend on the unknown parameters, specifically for cases where the operator depends linearly on the unknowns. The proposed self-test loss function conserves energy for gradient flows and coincides with the expected log-likelihood ratio for stochastic differential equations. Importantly, it is quadratic, facilitating theoretical analysis of identifiability and well-posedness of the inverse problem, while also leading to efficient parametric or nonparametric regression algorithms. It is computationally simple, requiring only low-order derivatives or even being entirely derivative-free, and numerical experiments demonstrate its robustness against noisy and discrete data.

arxiv情報

著者 Yuan Gao,Quanjun Lang,Fei Lu
発行日 2024-12-04 17:48:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク