Invertible Koopman neural operator for data-driven modeling of partial differential equations

要約

Koopmanオペレーター理論は、非線形動的システムのグローバルな線形化表現を提供するため、データ駆動型モデリングの一般的な候補です。
ただし、既存のKoopmanオペレーターベースの方法は、行儀の良い観察可能な関数とその逆数を構築する際に欠点に悩まされており、部分的な微分方程式(PDE)を扱うときに十分ではありません。
これらの問題に対処するために、このペーパーでは、Koopmanオペレーターの理論とニューラル演算子に触発された新しいデータ駆動型モデリングアプローチである、反転可能なKoopman Neural Operator(IKNO)を提案します。
IKNOは、反転可能なニューラルネットワークを活用して、同じ学習可能なパラメーターの下で観測可能な関数とその逆数をパラメーター化し、再構成関係を明示的に保証し、再構成損失への依存性を排除します。
Koopmanオペレーター理論に触発された構造化された線形マトリックスは、観察可能な空間ではなく、周波数空間での観測可能性の低周波モードの進化を学習するためにパラメーター化されているため、IKNOを維持することは、他の神経演算子と同様に解像度に不変です。
さらに、補間や寸法拡張などの前処理により、IKNOは、非標準ドメインで定義されたオペレーター学習タスクに拡張できます。
豊富な数値的および実世界の例に基づいて上記の主張を完全にサポートし、他の神経演算子よりもIKNOと優位性の有効性を実証しています。

要約(オリジナル)

Koopman operator theory is a popular candidate for data-driven modeling because it provides a global linearization representation for nonlinear dynamical systems. However, existing Koopman operator-based methods suffer from shortcomings in constructing the well-behaved observable function and its inverse and are inefficient enough when dealing with partial differential equations (PDEs). To address these issues, this paper proposes the Invertible Koopman Neural Operator (IKNO), a novel data-driven modeling approach inspired by the Koopman operator theory and neural operator. IKNO leverages an Invertible Neural Network to parameterize observable function and its inverse simultaneously under the same learnable parameters, explicitly guaranteeing the reconstruction relation, thus eliminating the dependency on the reconstruction loss, which is an essential improvement over the original Koopman Neural Operator (KNO). The structured linear matrix inspired by the Koopman operator theory is parameterized to learn the evolution of observables’ low-frequency modes in the frequency space rather than directly in the observable space, sustaining IKNO is resolution-invariant like other neural operators. Moreover, with preprocessing such as interpolation and dimension expansion, IKNO can be extended to operator learning tasks defined on non-Cartesian domains. We fully support the above claims based on rich numerical and real-world examples and demonstrate the effectiveness of IKNO and superiority over other neural operators.

arxiv情報

著者 Yuhong Jin,Andong Cong,Lei Hou,Qiang Gao,Xiangdong Ge,Chonglong Zhu,Yongzhi Feng,Jun Li
発行日 2025-03-25 14:43:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク