要約
スパースラジアル基底関数(RBF)ネットワークを使用して、非線形PDEを解くための新しいフレームワークを提案します。
スパース促進の正則化が採用され、過剰パラメーター化を防ぎ、冗長機能を減らします。
この作業は、物理学に基づいたニューラルネットワーク(PINNS)とガウスプロセス(GP)の制限とともに、従来のRBFコロケーション方法における長年の課題に動機付けられ、統一されたフレームワークにそれぞれの強みを融合することを目指しています。
私たちのアプローチの理論的基盤は、おそらく無限の幅の1つの層層ニューラルネットワークによって誘発されるカーネルバナッハ空間(RKB)を再現する関数空間にあります。
RKBSのまばらな最適化問題の解決策が有限のソリューションを認め、古典的な数値分析を一般化するための基盤を提供するエラー境界を確立することを示す代表者定理を証明します。
アルゴリズムフレームワークは、適応的な特徴選択、2次最適化、および非アクティブニューロンの剪定を通じて計算効率を維持するための3相アルゴリズムに基づいています。
数値実験は、私たちの方法の有効性を示し、GPアプローチよりも顕著な利点を提供するケースを強調します。
この作業は、効率的で学習に触発された実装を伴う厳格な分析に基づいた適応型PDEソルバーの新しい方向性を開きます。
要約(オリジナル)
We propose a novel framework for solving nonlinear PDEs using sparse radial basis function (RBF) networks. Sparsity-promoting regularization is employed to prevent over-parameterization and reduce redundant features. This work is motivated by longstanding challenges in traditional RBF collocation methods, along with the limitations of physics-informed neural networks (PINNs) and Gaussian process (GP) approaches, aiming to blend their respective strengths in a unified framework. The theoretical foundation of our approach lies in the function space of Reproducing Kernel Banach Spaces (RKBS) induced by one-hidden-layer neural networks of possibly infinite width. We prove a representer theorem showing that the solution to the sparse optimization problem in the RKBS admits a finite solution and establishes error bounds that offer a foundation for generalizing classical numerical analysis. The algorithmic framework is based on a three-phase algorithm to maintain computational efficiency through adaptive feature selection, second-order optimization, and pruning of inactive neurons. Numerical experiments demonstrate the effectiveness of our method and highlight cases where it offers notable advantages over GP approaches. This work opens new directions for adaptive PDE solvers grounded in rigorous analysis with efficient, learning-inspired implementation.
arxiv情報
著者 | Zihan Shao,Konstantin Pieper,Xiaochuan Tian |
発行日 | 2025-05-12 17:12:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google