要約
従来の睡眠モニタリングは時間がかかり、高価で不快であり、患者に多数の接触センサーを取り付ける必要があります。
ビデオ データは通常、睡眠検査室評価の一部として記録されます。
ビデオのみから正確な睡眠段階を達成できれば、従来の方法の問題の多くが克服されるでしょう。
この研究では、近赤外線ビデオ カメラから得られる心拍数、呼吸数、活動量の測定値をすべて使用して、睡眠段階の分類を実行します。
私たちは深層転移学習アプローチを使用して、既存の接触センサー データセットを使用して心拍数と呼吸数の時系列から効果的な表現を学習することで、データ不足を克服します。
50 人の健康なボランティアのデータセットを使用して、4 クラスの睡眠段階分類で 73.4\% の精度と 0.61 のコーエンのカッパを達成し、ビデオベースの睡眠段階の新しい最先端を確立しました。
要約(オリジナル)
Conventional sleep monitoring is time-consuming, expensive and uncomfortable, requiring a large number of contact sensors to be attached to the patient. Video data is commonly recorded as part of a sleep laboratory assessment. If accurate sleep staging could be achieved solely from video, this would overcome many of the problems of traditional methods. In this work we use heart rate, breathing rate and activity measures, all derived from a near-infrared video camera, to perform sleep stage classification. We use a deep transfer learning approach to overcome data scarcity, by using an existing contact-sensor dataset to learn effective representations from the heart and breathing rate time series. Using a dataset of 50 healthy volunteers, we achieve an accuracy of 73.4\% and a Cohen’s kappa of 0.61 in four-class sleep stage classification, establishing a new state-of-the-art for video-based sleep staging.
arxiv情報
著者 | Jonathan Carter,João Jorge,Bindia Venugopal,Oliver Gibson,Lionel Tarassenko |
発行日 | 2023-06-06 14:21:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google