fKAN: Fractional Kolmogorov-Arnold Networks with trainable Jacobi basis functions

要約

ニューラル ネットワーク設計の最近の進歩により、速度、解釈可能性、精度が向上したコルモゴロフ アーノルド ネットワーク (KAN) が開発されました。
この論文では、基礎関数としてトレーニング可能な適応型分数直交ヤコビ関数を備えた KAN の特徴的な属性を組み込んだ新しいニューラル ネットワーク アーキテクチャである分数コルモゴロフ-アーノルド ネットワーク (fKAN) について説明します。
このアプローチでは、単純な微分公式、非多項式の動作、正と負の両方の入力値のアクティビティなど、分数ヤコビ関数の固有の数学的特性を活用することで、効率的な学習と精度の向上が保証されます。
提案されたアーキテクチャは、ディープ ラーニングおよび物理情報に基づいたディープ ラーニングのさまざまなタスクにわたって評価されます。
精度は、合成回帰データ、画像分類、画像ノイズ除去、センチメント分析でテストされます。
さらに、パフォーマンスは、常微分方程式、部分遅延微分方程式、分数遅延微分方程式を含むさまざまな微分方程式で測定されます。
この結果は、分数ヤコビ関数を KAN に統合すると、さまざまな分野やアプリケーションにわたってトレーニングの速度とパフォーマンスが大幅に向上することを示しています。

要約(オリジナル)

Recent advancements in neural network design have given rise to the development of Kolmogorov-Arnold Networks (KANs), which enhance speed, interpretability, and precision. This paper presents the Fractional Kolmogorov-Arnold Network (fKAN), a novel neural network architecture that incorporates the distinctive attributes of KANs with a trainable adaptive fractional-orthogonal Jacobi function as its basis function. By leveraging the unique mathematical properties of fractional Jacobi functions, including simple derivative formulas, non-polynomial behavior, and activity for both positive and negative input values, this approach ensures efficient learning and enhanced accuracy. The proposed architecture is evaluated across a range of tasks in deep learning and physics-informed deep learning. Precision is tested on synthetic regression data, image classification, image denoising, and sentiment analysis. Additionally, the performance is measured on various differential equations, including ordinary, partial, and fractional delay differential equations. The results demonstrate that integrating fractional Jacobi functions into KANs significantly improves training speed and performance across diverse fields and applications.

arxiv情報

著者 Alireza Afzal Aghaei
発行日 2024-06-11 17:01:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NA, math.NA パーマリンク