要約
非侵襲的で継続的な血圧 (BP) モニタリングは、多くの心血管疾患の早期予防に不可欠です。
光電脈波検査 (PPG) から動脈血圧 (ABP) を推定することが、有望なソリューションとして浮上しています。
ただし、PPG から ABP への再構成 (PAR) に対する既存の深層学習アプローチでは、特定の情報損失が発生し、再構成された信号の精度に影響を与えます。
この制限を克服するために、PPG から ABP への再構成用の可逆ニューラル ネットワーク (INN-PAR) を導入します。これは、一連の可逆ブロックを使用して、PPG とその勾配と ABP 信号とその勾配の間のマッピングを共同学習します。
INN-PAR は、順方向マッピングと逆方向マッピングの両方を同時に効率的にキャプチャし、情報損失を防ぎます。
INN-PAR は、信号勾配を学習プロセスに統合することで、重要な高周波の詳細をキャプチャするネットワークの能力を強化し、より正確な信号の再構築につながります。
さらに、可逆ブロック内のマルチスケール畳み込みモジュール (MSCM) を提案し、モデルが複数のスケールにわたって効果的に特徴を学習できるようにします。
2 つのベンチマーク データセットで実験を行ったところ、INN-PAR は波形再構成と血圧測定精度の両方において最先端の方法よりも大幅に優れていることがわかりました。
要約(オリジナル)
Non-invasive and continuous blood pressure (BP) monitoring is essential for the early prevention of many cardiovascular diseases. Estimating arterial blood pressure (ABP) from photoplethysmography (PPG) has emerged as a promising solution. However, existing deep learning approaches for PPG-to-ABP reconstruction (PAR) encounter certain information loss, impacting the precision of the reconstructed signal. To overcome this limitation, we introduce an invertible neural network for PPG to ABP reconstruction (INN-PAR), which employs a series of invertible blocks to jointly learn the mapping between PPG and its gradient with the ABP signal and its gradient. INN-PAR efficiently captures both forward and inverse mappings simultaneously, thereby preventing information loss. By integrating signal gradients into the learning process, INN-PAR enhances the network’s ability to capture essential high-frequency details, leading to more accurate signal reconstruction. Moreover, we propose a multi-scale convolution module (MSCM) within the invertible block, enabling the model to learn features across multiple scales effectively. We have experimented on two benchmark datasets, which show that INN-PAR significantly outperforms the state-of-the-art methods in both waveform reconstruction and BP measurement accuracy.
arxiv情報
著者 | Soumitra Kundu,Gargi Panda,Saumik Bhattacharya,Aurobinda Routray,Rajlakshmi Guha |
発行日 | 2024-09-13 17:48:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google