A Deep Learning Framework for Sequence Mining with Bidirectional LSTM and Multi-Scale Attention

要約

このペーパーでは、複雑なシーケンスデータの潜在パターンとモデリングのコンテキスト依存関係のマイニングの課題について説明します。
シーケンスパターンマイニングアルゴリズムは、双方向の長期メモリ(BILSTM)をマルチスケールの注意メカニズムと統合することにより提案されます。
BILSTMは、シーケンスで前方と後方の依存関係の両方をキャプチャし、グローバルなコンテキスト構造を知覚するモデルの能力を高めます。
同時に、マルチスケールの注意モジュールは、さまざまなウィンドウサイズの下の主要な特徴領域に適応的な重みを割り当てます。
これにより、ローカルおよびグローバルな重要な情報に対するモデルの応答性が向上します。
広範な実験は、公開されている多変量時系列データセットで行われます。
提案されたモデルは、いくつかの主流シーケンスモデリング方法と比較されます。
結果は、精度、精度、リコールの観点から既存のモデルよりも優れていることを示しています。
これにより、複雑なパターン認識タスクにおける提案されたアーキテクチャの有効性と堅牢性が確認されます。
さらなるアブレーションの研究と感度分析は、モデルのパフォーマンスに対する注意スケールと入力シーケンスの長さの影響を調査するために実施されます。
これらの結果は、モデルの構造的最適化に対する経験的サポートを提供します。

要約(オリジナル)

This paper addresses the challenges of mining latent patterns and modeling contextual dependencies in complex sequence data. A sequence pattern mining algorithm is proposed by integrating Bidirectional Long Short-Term Memory (BiLSTM) with a multi-scale attention mechanism. The BiLSTM captures both forward and backward dependencies in sequences, enhancing the model’s ability to perceive global contextual structures. At the same time, the multi-scale attention module assigns adaptive weights to key feature regions under different window sizes. This improves the model’s responsiveness to both local and global important information. Extensive experiments are conducted on a publicly available multivariate time series dataset. The proposed model is compared with several mainstream sequence modeling methods. Results show that it outperforms existing models in terms of accuracy, precision, and recall. This confirms the effectiveness and robustness of the proposed architecture in complex pattern recognition tasks. Further ablation studies and sensitivity analyses are carried out to investigate the effects of attention scale and input sequence length on model performance. These results provide empirical support for structural optimization of the model.

arxiv情報

著者 Tao Yang,Yu Cheng,Yaokun Ren,Yujia Lou,Minggu Wei,Honghui Xin
発行日 2025-04-21 16:53:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク