Transparency in Sleep Staging: Deep Learning Method for EEG Sleep Stage Classification with Model Interpretability

要約

生の単一チャネル EEG を使用した自動睡眠段階分類は、睡眠の質の評価と障害の診断に重要なツールです。
ただし、この信号に固有の複雑さと変動性をモデル化することは困難な作業であり、臨床現場での実用性と有効性が制限されます。
これらの課題を軽減するために、この研究では、残差ネットワーク内のスクイーズ ブロックと励起ブロックを統合して特徴を抽出し、スタックされた Bi-LSTM を統合して複雑な時間依存関係を理解する、エンドツーエンドの深層学習 (DL) モデルを紹介します。
この研究の特徴的な点は、GradCam を睡眠ステージングに適応させたことで、意思決定を睡眠の専門家の洞察と整合させた、この領域における説明可能な DL モデルの最初の例を示しています。
公開されているデータセット (SleepEDF-20、SleepEDF-78、SHHS) でモデルを評価し、それぞれ 82.5、78.9、81.9 の Macro-F1 スコアを達成しました。
さらに、ストライドサイズを大きくすることで新しいトレーニング効率向上戦略が実装され、パフォーマンスへの影響を最小限に抑えながらトレーニング時間を 8 倍高速化しました。
比較分析により、私たちのモデルが既存のすべてのベースラインよりも優れていることが強調され、臨床使用の可能性が示されています。

要約(オリジナル)

Automated Sleep stage classification using raw single channel EEG is a critical tool for sleep quality assessment and disorder diagnosis. However, modelling the complexity and variability inherent in this signal is a challenging task, limiting their practicality and effectiveness in clinical settings. To mitigate these challenges, this study presents an end-to-end deep learning (DL) model which integrates squeeze and excitation blocks within the residual network to extract features and stacked Bi-LSTM to understand complex temporal dependencies. A distinctive aspect of this study is the adaptation of GradCam for sleep staging, marking the first instance of an explainable DL model in this domain with alignment of its decision-making with sleep expert’s insights. We evaluated our model on the publically available datasets (SleepEDF-20, SleepEDF-78, and SHHS), achieving Macro-F1 scores of 82.5, 78.9, and 81.9, respectively. Additionally, a novel training efficiency enhancement strategy was implemented by increasing stride size, leading to 8x faster training times with minimal impact on performance. Comparative analyses underscore our model outperforms all existing baselines, indicating its potential for clinical usage.

arxiv情報

著者 Shivam Sharma,Suvadeep Maiti,S. Mythirayee,Srijithesh Rajendran,Raju Surampudi Bapi
発行日 2024-01-11 14:51:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, eess.SP パーマリンク