要約
非接触センシングは、車両のドライバー監視から医療現場の患者監視まで、多くの業界で応用されている新興技術です。
現在の最先端の実装は RGB ビデオに重点を置いていますが、これは変化する/ノイズの多い光条件では困難であり、暗闇ではほぼ完全に実行できません。
ただし、近赤外線 (NIR) ビデオにはこれらの制約はありません。
この論文は、一連の NIR フレームからフォトプレチスモグラフィー (PPG) 信号を回帰するための、代替のコンボリューション アテンション ネットワーク (CAN) アーキテクチャの有効性を実証することを目的としています。
CAN のトレーニングには、トレーニング セットとテスト セットに分割された 2 つの公的に利用可能なデータセットの組み合わせが使用されます。
この結合データセットは、心拍数の全範囲と各被験者の対応するビデオを提供することで、「通常の」60 ~ 80 bpm の心拍数範囲への過剰適合を減らすために強化されています。
この CAN は、被験者の頭部に切り取られたビデオ上に実装された場合、わずか 0.99 bpm の平均平均誤差 (MAE) を達成し、NIR ビデオでの有効性と、正確な信号出力を回帰するアーキテクチャの実現可能性を証明しました。
要約(オリジナル)
Non-Contact sensing is an emerging technology with applications across many industries from driver monitoring in vehicles to patient monitoring in healthcare. Current state-of-the-art implementations focus on RGB video, but this struggles in varying/noisy light conditions and is almost completely unfeasible in the dark. Near Infra-Red (NIR) video, however, does not suffer from these constraints. This paper aims to demonstrate the effectiveness of an alternative Convolution Attention Network (CAN) architecture, to regress photoplethysmography (PPG) signal from a sequence of NIR frames. A combination of two publicly available datasets, which is split into train and test sets, is used for training the CAN. This combined dataset is augmented to reduce overfitting to the ‘normal’ 60 – 80 bpm heart rate range by providing the full range of heart rates along with corresponding videos for each subject. This CAN, when implemented over video cropped to the subject’s head, achieved a Mean Average Error (MAE) of just 0.99 bpm, proving its effectiveness on NIR video and the architecture’s feasibility to regress an accurate signal output.
arxiv情報
著者 | Timothy Hanley,Dara Golden,Robyn Maxwell,Ashkan Parsi,Joseph Lemley |
発行日 | 2023-11-20 13:34:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google