要約
ニューラル ネットワークを使用した常微分方程式 (ODE) の解法の最近の進歩には目覚ましいものがあります。
ニューラル ネットワークは、勾配逆伝播アルゴリズムの助けを借りて、試行関数として機能し、関数空間内で解を近似することに優れています。
しかし、高次や非線形の場合を含む複雑な ODE を解くには課題が残されており、効率と有効性の向上の必要性が強調されています。
従来の方法は通常、問題解決の効率を向上させるために確立された知識の統合に依存していました。
対照的に、この研究では、レシオ ネットとして知られるトライアル関数を構築するための新しいニューラル ネットワーク アーキテクチャを導入するという、異なるアプローチを採用しています。
このアーキテクチャは、有理分数多項式近似関数、特にパデ近似関数からインスピレーションを得ています。
実証試験を通じて、提案された方法が、多項式ベースおよび多層パーセプトロン (MLP) ニューラル ネットワーク ベースの方法を含む既存のアプローチと比較して高い効率を示すことが実証されました。
レシオネットは、微分方程式を解く効率と有効性を高めることが期待されています。
要約(オリジナル)
Recent advances in solving ordinary differential equations (ODEs) with neural networks have been remarkable. Neural networks excel at serving as trial functions and approximating solutions within functional spaces, aided by gradient backpropagation algorithms. However, challenges remain in solving complex ODEs, including high-order and nonlinear cases, emphasizing the need for improved efficiency and effectiveness. Traditional methods have typically relied on established knowledge integration to improve problem-solving efficiency. In contrast, this study takes a different approach by introducing a new neural network architecture for constructing trial functions, known as ratio net. This architecture draws inspiration from rational fraction polynomial approximation functions, specifically the Pade approximant. Through empirical trials, it demonstrated that the proposed method exhibits higher efficiency compared to existing approaches, including polynomial-based and multilayer perceptron (MLP) neural network-based methods. The ratio net holds promise for advancing the efficiency and effectiveness of solving differential equations.
arxiv情報
著者 | Chenxin Qin,Ruhao Liu,Maocai Li,Shengyuan Li,Yi Liu,Chichun Zhou |
発行日 | 2024-01-31 14:39:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google