Mamba-based Deep Learning Approaches for Sleep Staging on a Wireless Multimodal Wearable System without Electroencephalography

要約

研究の目的: 胸部心電図 (ECG)、三軸加速度計、および体温を測定する、侵入を最小限に抑えたデュアルセンサー無線ウェアラブル システムである ANNE One (Sibel Health、イリノイ州エヴァンストン) からの信号に対する睡眠ステージングのための Mamba ベースの深層学習アプローチの使用を調査します。
、指の光電脈波検査(PPG)と体温も同様です。
方法: 三次医療睡眠検査室で同時に臨床ポリ睡眠検査 (PSG) を受けている 360 人の成人からウェアラブル センサーの記録を入手しました。
PSG の録音は AASM 基準に従って採点されました。
PSG とウェアラブル センサーのデータは、ECG チャンネルを使用して自動的に調整され、目視検査による手動確認が行われました。
これらの記録に対して、畳み込み再帰型ニューラル ネットワーク (CRNN) と再帰型ニューラル ネットワーク (RNN) アーキテクチャの両方を使用して Mamba ベースのモデルをトレーニングしました。
同様のアーキテクチャを持つモデル バリアントのアンサンブルが実行されました。
結果: アンサンブル後の最良のアプローチは、3 クラス (ウェイク、NREM、REM) のバランスの取れた精度 83.50%、F1 スコア 84.16%、Cohen の $\kappa$ 72.68%、MCC スコア 72.84% を達成しました。
4 クラス (ウェイク、N1/N2、N3、REM) のバランスの取れた精度は 74.64%、F1 スコアは 74.56%、Cohen の $\kappa$ は 61.63%、MCC スコアは 62.04%。
5 クラス (ウェイク、N1、N2、N3、REM) のバランスの取れた精度は 64.30%、F1 スコアは 66.97%、Cohen の $\kappa$ は 53.23%、MCC スコアは 54.38% でした。
結論: 深層学習モデルは、脳波検査 (EEG) なしでウェアラブル システムから主要な睡眠段階を推測でき、三次医療の睡眠クリニックに通う成人のデータにうまく適用できます。

要約(オリジナル)

Study Objectives: We investigate using Mamba-based deep learning approaches for sleep staging on signals from ANNE One (Sibel Health, Evanston, IL), a minimally intrusive dual-sensor wireless wearable system measuring chest electrocardiography (ECG), triaxial accelerometry, and temperature, as well as finger photoplethysmography (PPG) and temperature. Methods: We obtained wearable sensor recordings from 360 adults undergoing concurrent clinical polysomnography (PSG) at a tertiary care sleep lab. PSG recordings were scored according to AASM criteria. PSG and wearable sensor data were automatically aligned using their ECG channels with manual confirmation by visual inspection. We trained Mamba-based models with both convolutional-recurrent neural network (CRNN) and the recurrent neural network (RNN) architectures on these recordings. Ensembling of model variants with similar architectures was performed. Results: Our best approach, after ensembling, attains a 3-class (wake, NREM, REM) balanced accuracy of 83.50%, F1 score of 84.16%, Cohen’s $\kappa$ of 72.68%, and a MCC score of 72.84%; a 4-class (wake, N1/N2, N3, REM) balanced accuracy of 74.64%, F1 score of 74.56%, Cohen’s $\kappa$ of 61.63%, and MCC score of 62.04%; a 5-class (wake, N1, N2, N3, REM) balanced accuracy of 64.30%, F1 score of 66.97%, Cohen’s $\kappa$ of 53.23%, MCC score of 54.38%. Conclusions: Deep learning models can infer major sleep stages from a wearable system without electroencephalography (EEG) and can be successfully applied to data from adults attending a tertiary care sleep clinic.

arxiv情報

著者 Andrew H. Zhang,Alex He-Mo,Richard Fei Yin,Chunlin Li,Yuzhi Tang,Dharmendra Gurve,Nasim Montazeri Ghahjaverestan,Maged Goubran,Bo Wang,Andrew S. P. Lim
発行日 2024-12-20 14:43:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, q-bio.QM パーマリンク