MCI-GRU: Stock Prediction Model Based on Multi-Head Cross-Attention and Improved GRU

要約

金融市場がビッグデータの時代でますます複雑になるにつれて、正確な在庫予測がより重要になりました。
Grusなどの従来の時系列モデルは広く使用されていますが、特に主要な履歴情報の柔軟な選択と効果的な利用において、市場の複雑な非線形ダイナミクスを捉えるのに苦労しています。
最近、グラフニューラルネットワークや補強学習などの方法では、在庫予測に有望であるが、高いデータの品質と量が必要であり、データのスパースとノイズを扱うときに不安定性を示す傾向があります。
さらに、これらのモデルのトレーニングおよび推論プロセスは通常、複雑で計算高価であり、実際のアプリケーションでの幅広い展開を制限しています。
既存のアプローチは、一般に、市場の感情と期待、微細構造要因、参加者の行動パターンなど、観察不能な潜在的な市場状態を効果的に捉えるのに苦労しており、市場のダイナミクスの不十分な理解とその後、予測の精度に影響を与えます。
これらの課題に対処するために、このホワイトペーパーでは、マルチヘッド交差アテナンスメカニズムと改善されたGRUに基づいて、在庫予測モデルであるMCI-Gruを提案しています。
まず、リセットゲートを注意メカニズムに置き換えることにより、GRUモデルを強化し、それにより、履歴情報の選択と利用におけるモデルの柔軟性を高めます。
第二に、私たちは観察できない潜在的な潜在的な市場状態表現を学習するための多目的クロスアテナンスメカニズムを設計します。これは、時間的特徴と横断的特徴の両方との相互作用を通じてさらに豊かになります。
最後に、4つの主要な株式市場での広範な実験は、提案された方法が複数のメトリックにわたってSOTA技術よりも優れていることを示しています。
さらに、現実世界のファンド管理業務での適用が成功すると、その有効性と実用性が確認されます。

要約(オリジナル)

As financial markets grow increasingly complex in the big data era, accurate stock prediction has become more critical. Traditional time series models, such as GRUs, have been widely used but often struggle to capture the intricate nonlinear dynamics of markets, particularly in the flexible selection and effective utilization of key historical information. Recently, methods like Graph Neural Networks and Reinforcement Learning have shown promise in stock prediction but require high data quality and quantity, and they tend to exhibit instability when dealing with data sparsity and noise. Moreover, the training and inference processes for these models are typically complex and computationally expensive, limiting their broad deployment in practical applications. Existing approaches also generally struggle to capture unobservable latent market states effectively, such as market sentiment and expectations, microstructural factors, and participant behavior patterns, leading to an inadequate understanding of market dynamics and subsequently impact prediction accuracy. To address these challenges, this paper proposes a stock prediction model, MCI-GRU, based on a multi-head cross-attention mechanism and an improved GRU. First, we enhance the GRU model by replacing the reset gate with an attention mechanism, thereby increasing the model’s flexibility in selecting and utilizing historical information. Second, we design a multi-head cross-attention mechanism for learning unobservable latent market state representations, which are further enriched through interactions with both temporal features and cross-sectional features. Finally, extensive experiments on four main stock markets show that the proposed method outperforms SOTA techniques across multiple metrics. Additionally, its successful application in real-world fund management operations confirms its effectiveness and practicality.

arxiv情報

著者 Peng Zhu,Yuante Li,Yifan Hu,Sheng Xiang,Qinyuan Liu,Dawei Cheng,Yuqi Liang
発行日 2025-03-28 16:40:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, q-fin.CP, q-fin.ST パーマリンク