要約
一般化された発作検出モデルの機能エンジニアリングは、依然として大きな課題です。
最近提案されたモデルは、トレーニングデータに応じて可変性能を示し、アーティファクトを発作データと正確に区別するのに効果がありません。
この研究では、新しいエンドツーエンドモデル「「Multiregwavenet(Mr-Eegwavenet)」、「発作イベント」とバックグラウンドの脳波(EEG)とアーティファクト/ノイズを、異なる時間枠とチャネル間の空間的関係にわたって時間的依存関係の両方をキャプチャすることにより、発作イベントを効率的に区別することを提案します。
モデルには、畳み込み、特徴抽出、予測因子の3つのモジュールがあります。
畳み込みモジュールは、深さのように、時空間的畳み込みを通じて特徴を抽出します。
特徴抽出モジュールは、EEGセグメントとそのサブセグメントから抽出された特徴寸法を個別に削減します。
その後、抽出された特徴は、予測モジュールと呼ばれる完全に接続された分類器を使用して分類のために単一のベクトルに連結します。
さらに、モデルの偽陽性レートを減らすために、異常スコアベースの分類後処理処理手法が導入されました。
実験結果は、異なるパラメーター設定とデータセット(Siena(public)およびJundendo(private))を使用して報告および分析されました。
提案されたMr-Eeagwavenetは、従来の非混合解決策アプローチを大幅に上回り、Sienaで0.177から0.336から0.327から0.488にF1スコアを改善し、それぞれ15.9%と20.62%の精度の向上を挙げました。
要約(オリジナル)
Feature engineering for generalized seizure detection models remains a significant challenge. Recently proposed models show variable performance depending on the training data and remain ineffective at accurately distinguishing artifacts from seizure data. In this study, we propose a novel end-to-end model, ”Multiresolutional EEGWaveNet (MR-EEGWaveNet),” which efficiently distinguishes seizure events from background electroencephalogram (EEG) and artifacts/noise by capturing both temporal dependencies across different time frames and spatial relationships between channels. The model has three modules: convolution, feature extraction, and predictor. The convolution module extracts features through depth-wise and spatio-temporal convolution. The feature extraction module individually reduces the feature dimension extracted from EEG segments and their sub-segments. Subsequently, the extracted features are concatenated into a single vector for classification using a fully connected classifier called the predictor module. In addition, an anomaly score-based post-classification processing technique was introduced to reduce the false-positive rates of the model. Experimental results were reported and analyzed using different parameter settings and datasets (Siena (public) and Juntendo (private)). The proposed MR-EEGWaveNet significantly outperformed the conventional non-multiresolution approach, improving the F1 scores from 0.177 to 0.336 on Siena and 0.327 to 0.488 on Juntendo, with precision gains of 15.9% and 20.62%, respectively.
arxiv情報
著者 | Kazi Mahmudul Hassan,Xuyang Zhao,Hidenori Sugano,Toshihisa Tanaka |
発行日 | 2025-05-23 14:40:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google