Using Neural Implicit Flow To Represent Latent Dynamics Of Canonical Systems

要約

最近導入されたニューラル オペレーターとして知られるアーキテクチャのクラスは、データ表現や予測など、科学機械学習 (SciML) の分野の幅広いタスクに適用できる汎用性の高いツールとして登場しました。
この研究では、Kuramoto-Sivashinsky (KS)、強制 Korteweg-de Vries (fKdV) などの標準システムの潜在的なダイナミクスを表現するための、最近開発されたメッシュに依存しないニューラル オペレーターである Neural Implicit Flow (NIF) の機能を調査します。
)、サインゴードン (SG) 方程式、およびそれらから動的に関連する情報を抽出するために使用されます。
最後に、次元削減アルゴリズムとしての NIF の適用性を評価し、ディープ オペレーター ネットワーク (DeepONets) として知られる、広く認識されている別のニューラル オペレーター ファミリとの比較分析を実行します。

要約(オリジナル)

The recently introduced class of architectures known as Neural Operators has emerged as highly versatile tools applicable to a wide range of tasks in the field of Scientific Machine Learning (SciML), including data representation and forecasting. In this study, we investigate the capabilities of Neural Implicit Flow (NIF), a recently developed mesh-agnostic neural operator, for representing the latent dynamics of canonical systems such as the Kuramoto-Sivashinsky (KS), forced Korteweg-de Vries (fKdV), and Sine-Gordon (SG) equations, as well as for extracting dynamically relevant information from them. Finally we assess the applicability of NIF as a dimensionality reduction algorithm and conduct a comparative analysis with another widely recognized family of neural operators, known as Deep Operator Networks (DeepONets).

arxiv情報

著者 Imran Nasim,Joaõ Lucas de Sousa Almeida
発行日 2024-04-26 17:01:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク