Convolutional Neural Operators for robust and accurate learning of PDEs

要約

畳み込みベースのニューラル ネットワーク アーキテクチャは、従来の機械学習では非常にうまく使用されていますが、関数空間では一貫性がないと考えられており、偏微分方程式の解演算子を学習するという文脈ではほとんど無視されてきました。
ここでは、畳み込みニューラル ネットワークが実際に入力および出力として関数を処理できることを実証するために、畳み込みニューラル ネットワークの新しい適応を紹介します。
結果として得られるアーキテクチャは、畳み込みニューラル演算子 (CNO) と呼ばれ、コンピューター上で離散化された形式で実装された場合でも、その基礎となる連続的な性質を維持するように特別に設計されています。
普遍性定理を証明して、CNO が偏微分方程式で生じる演算子を望ましい精度に近似できることを示します。
CNO は、おそらくマルチスケールのソリューションを備えた多様な PDE セットを含む、新しい一連のベンチマークでテストされ、ベースラインを大幅に上回るパフォーマンスが観察され、堅牢で正確なオペレーター学習のための代替フレームワークへの道が開かれます。

要約(オリジナル)

Although very successfully used in conventional machine learning, convolution based neural network architectures — believed to be inconsistent in function space — have been largely ignored in the context of learning solution operators of PDEs. Here, we present novel adaptations for convolutional neural networks to demonstrate that they are indeed able to process functions as inputs and outputs. The resulting architecture, termed as convolutional neural operators (CNOs), is designed specifically to preserve its underlying continuous nature, even when implemented in a discretized form on a computer. We prove a universality theorem to show that CNOs can approximate operators arising in PDEs to desired accuracy. CNOs are tested on a novel suite of benchmarks, encompassing a diverse set of PDEs with possibly multi-scale solutions and are observed to significantly outperform baselines, paving the way for an alternative framework for robust and accurate operator learning.

arxiv情報

著者 Bogdan Raonić,Roberto Molinaro,Tim De Ryck,Tobias Rohner,Francesca Bartolucci,Rima Alaifari,Siddhartha Mishra,Emmanuel de Bézenac
発行日 2023-05-30 17:34:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク