An Orthogonal Polynomial Kernel-Based Machine Learning Model for Differential-Algebraic Equations

要約

微分方程式および積分方程式を解くための最小二乗サポート ベクトル回帰 (LS-SVR) アルゴリズムが最近導入され、関心が高まっています。
この研究では、このアルゴリズムの応用を拡張して、微分代数方程式 (DAE) 系に対処します。
私たちの研究は、LS-SVR 機械学習モデル、重み付き残差法、およびルジャンドル直交多項式の間の接続を確立することにより、演算子形式で一般的な DAE を解く新しいアプローチを示しています。
提案した方法の有効性を評価するために、非線形システム、分数次微分、積分微分、部分 DAE などのさまざまな DAE シナリオを含むシミュレーションを実行します。
最後に、私たちが提案した方法と現在確立されている最先端のアプローチとの比較を実行し、その信頼性と有効性を実証します。

要約(オリジナル)

The recent introduction of the Least-Squares Support Vector Regression (LS-SVR) algorithm for solving differential and integral equations has sparked interest. In this study, we expand the application of this algorithm to address systems of differential-algebraic equations (DAEs). Our work presents a novel approach to solving general DAEs in an operator format by establishing connections between the LS-SVR machine learning model, weighted residual methods, and Legendre orthogonal polynomials. To assess the effectiveness of our proposed method, we conduct simulations involving various DAE scenarios, such as nonlinear systems, fractional-order derivatives, integro-differential, and partial DAEs. Finally, we carry out comparisons between our proposed method and currently established state-of-the-art approaches, demonstrating its reliability and effectiveness.

arxiv情報

著者 Tayebeh Taheri,Alireza Afzal Aghaei,Kourosh Parand
発行日 2024-01-25 18:37:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NA, math.NA パーマリンク