要約
実際のシナリオでは、時系列予測には精度だけでなく効率性も必要です。
したがって、モデル アーキテクチャの探求は、研究において常にトレンドとなっているトピックであり続けています。
これらの課題に対処するために、私たちは情報融合の観点からTime Evidence Fusion Network (TEFN)と呼ばれる新しいバックボーンアーキテクチャを提案します。
具体的には、チャネルと時間の両方の次元から多変量時系列データの不確実性を捕捉するために、証拠理論に基づいた基本確率割り当て (BPA) モジュールを導入します。
さらに、BPA 出力から 2 つの異なる次元を効果的に統合する新しいマルチソース情報融合手法を開発し、予測精度の向上につながります。
最後に、広範な実験を実施して、TEFN が大幅に低い複雑さとトレーニング時間の短縮を維持しながら、最先端の手法に匹敵するパフォーマンスを達成することを実証しました。
また、私たちの実験では、TEFN がハイパーパラメーター選択時の誤差の変動を最小限に抑え、高い堅牢性を示すことも示しています。
さらに、BPA はファジィ理論から導出されているという事実により、TEFN は高度な解釈可能性を提供します。
したがって、提案された TEFN は、精度、効率、安定性、解釈可能性のバランスが取れており、時系列予測にとって望ましいソリューションとなっています。
要約(オリジナル)
In practical scenarios, time series forecasting necessitates not only accuracy but also efficiency. Consequently, the exploration of model architectures remains a perennially trending topic in research. To address these challenges, we propose a novel backbone architecture named Time Evidence Fusion Network (TEFN) from the perspective of information fusion. Specifically, we introduce the Basic Probability Assignment (BPA) Module based on evidence theory to capture the uncertainty of multivariate time series data from both channel and time dimensions. Additionally, we develop a novel multi-source information fusion method to effectively integrate the two distinct dimensions from BPA output, leading to improved forecasting accuracy. Lastly, we conduct extensive experiments to demonstrate that TEFN achieves performance comparable to state-of-the-art methods while maintaining significantly lower complexity and reduced training time. Also, our experiments show that TEFN exhibits high robustness, with minimal error fluctuations during hyperparameter selection. Furthermore, due to the fact that BPA is derived from fuzzy theory, TEFN offers a high degree of interpretability. Therefore, the proposed TEFN balances accuracy, efficiency, stability, and interpretability, making it a desirable solution for time series forecasting.
arxiv情報
著者 | Tianxiang Zhan,Yuanpeng He,Yong Deng,Zhen Li,Wenjie Du,Qingsong Wen |
発行日 | 2024-09-24 12:57:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google