要約
株式の動きを正確に予測することは、投資戦略にとって非常に重要です。
株価は、財務指標、センチメント分析、ニュース文書、関係構造など、さまざまな形の情報の影響を受けます。
しかし、主流の分析アプローチは、単峰性または二峰性のソースのみに対処し、多峰性データの複雑さを無視する傾向があります。
データの希薄性とこれらのモダリティ間のセマンティックの矛盾の問題が状況をさらに複雑にしていますが、これらは現在のモデルでは見落とされることが多く、パフォーマンスが不安定になり、実用性が制限されます。
これらの欠点に対処するために、この研究では、株価変動予測のためのマルチモーダル入力を堅牢に統合するように設計された、Multimodal Stable Fusion with Gated Cross-Attendant (MSGCA) と呼ばれる新しいアーキテクチャを導入します。
MSGCA フレームワークは、次の 3 つの統合コンポーネントで構成されます。(1) インジケータ シーケンス、動的ドキュメント、およびリレーショナル グラフの処理と、それらの特徴表現の標準化を担当する三峰性エンコード モジュール。
(2) 機能間融合モジュール。主要で一貫した機能が、一対のゲート制御されたクロスアテンション ネットワークを介して 3 つのモダリティのマルチモーダル融合をガイドします。
(3) 予測モジュール。時間的および次元の縮小を通じて融合された特徴を洗練し、正確な動きの予測を実行します。
実証的評価では、MSGCA フレームワークが現在の主要な手法を上回り、マルチモーダル フュージョンの安定性が強化されたため、4 つのマルチモーダル データセットでそれぞれ 8.1%、6.1%、21.7%、および 31.6% のパフォーマンス向上を達成していることが実証されています。
要約(オリジナル)
The accurate prediction of stock movements is crucial for investment strategies. Stock prices are subject to the influence of various forms of information, including financial indicators, sentiment analysis, news documents, and relational structures. Predominant analytical approaches, however, tend to address only unimodal or bimodal sources, neglecting the complexity of multimodal data. Further complicating the landscape are the issues of data sparsity and semantic conflicts between these modalities, which are frequently overlooked by current models, leading to unstable performance and limiting practical applicability. To address these shortcomings, this study introduces a novel architecture, named Multimodal Stable Fusion with Gated Cross-Attention (MSGCA), designed to robustly integrate multimodal input for stock movement prediction. The MSGCA framework consists of three integral components: (1) a trimodal encoding module, responsible for processing indicator sequences, dynamic documents, and a relational graph, and standardizing their feature representations; (2) a cross-feature fusion module, where primary and consistent features guide the multimodal fusion of the three modalities via a pair of gated cross-attention networks; and (3) a prediction module, which refines the fused features through temporal and dimensional reduction to execute precise movement forecasting. Empirical evaluations demonstrate that the MSGCA framework exceeds current leading methods, achieving performance gains of 8.1%, 6.1%, 21.7% and 31.6% on four multimodal datasets, respectively, attributed to its enhanced multimodal fusion stability.
arxiv情報
著者 | Chang Zong,Hang Zhou |
発行日 | 2024-12-02 07:04:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google