TKAN: Temporal Kolmogorov-Arnold Networks

要約

リカレント ニューラル ネットワーク (RNN) は、特に自然言語とデータ シーケンスの処理において、機械学習の多くの分野に革命をもたらしました。
Long Short-Term Memory (LSTM) は、シーケンシャル データの長期依存関係をキャプチャする能力を実証しています。
多層パーセプトロン (MLP) の有望な代替手段であるコルモゴロフ-アーノルド ネットワーク (KAN) にヒントを得て、私たちは KAN と LSTM、時間的コロモゴロフ-アーノルド ネットワーク (TKAN) にヒントを得た新しいニューラル ネットワーク アーキテクチャを提案しました。
TKAN は両方のネットワークの強みを組み合わせたもので、メモリ管理を組み込んだ Recurring Kolmogorov-Arnold Networks (RKAN) 層で構成されています。
この革新により、精度と効率が向上した複数ステップの時系列予測を実行できるようになります。
TKAN アーキテクチャは、複雑な逐次パターンを処理する際の従来のモデルの制限に対処することで、複数のステップを先取りした予測が必要な分野で大きな進歩の可能性をもたらします。

要約(オリジナル)

Recurrent Neural Networks (RNNs) have revolutionized many areas of machine learning, particularly in natural language and data sequence processing. Long Short-Term Memory (LSTM) has demonstrated its ability to capture long-term dependencies in sequential data. Inspired by the Kolmogorov-Arnold Networks (KANs) a promising alternatives to Multi-Layer Perceptrons (MLPs), we proposed a new neural networks architecture inspired by KAN and the LSTM, the Temporal Kolomogorov-Arnold Networks (TKANs). TKANs combined the strenght of both networks, it is composed of Recurring Kolmogorov-Arnold Networks (RKANs) Layers embedding memory management. This innovation enables us to perform multi-step time series forecasting with enhanced accuracy and efficiency. By addressing the limitations of traditional models in handling complex sequential patterns, the TKAN architecture offers significant potential for advancements in fields requiring more than one step ahead forecasting.

arxiv情報

著者 Remi Genet,Hugo Inzirillo
発行日 2024-12-17 17:13:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク