Uncertainty quantification with approximate variational learning for wearable photoplethysmography prediction tasks

要約

フォトプレチスモグラフィ(PPG)シグナルは、心臓の健康のさまざまな側面を非侵襲的に評価するために使用できる血液量の相対的な変化に関する情報をエンコードします。
ディープネットワークは、ウェアラブル測定デバイスから取得した大量のデータを処理するための設備が整っています。
しかし、それらは解釈可能性を欠いており、過度に適合する傾向があり、目に見えないデータや誤診のパフォーマンスの低下のリスクがかなりあります。
ここでは、2つのスケーラブルな不確実性の定量化手法の使用について説明します。モンテカルロドロップアウトと最近提案された改善されたバリエーションオンラインニュートンです。
これらの手法は、生のPPG時系列からのAF分類とBP回帰を実行するように訓練されたモデルの信頼性を評価するために使用されます。
ハイパーパラメーターの選択は、モデルの予測性能と予測される不確実性の品質と構成に大きな影響を与えることがわかります。
例えば。
モデルパラメーターサンプリングの確率性は、アレアトリックである総不確実性の割合を決定し、選択した不確実性の定量化技術と選択した不確実性の表現に依存する予測パフォーマンスとキャリブレーション品質にさまざまな影響を及ぼします。
予測されたクラスに対する不確実性の質に大きな矛盾が見られ、ローカルおよび適応性のあるキャリブレーションを評価する徹底的な評価プロトコルの必要性を強調しています。
この作業は、予測パフォーマンスとキャリブレーションの品質のバランスをとるために、ハイパーパラメーターの選択を慎重に調整する必要があり、最適なパラメーター化は、選択された不確実性の表現によって異なる場合があることを示唆しています。

要約(オリジナル)

Photoplethysmography (PPG) signals encode information about relative changes in blood volume that can be used to assess various aspects of cardiac health non-invasively, e.g.\ to detect atrial fibrillation (AF) or predict blood pressure (BP). Deep networks are well-equipped to handle the large quantities of data acquired from wearable measurement devices. However, they lack interpretability and are prone to overfitting, leaving considerable risk for poor performance on unseen data and misdiagnosis. Here, we describe the use of two scalable uncertainty quantification techniques: Monte Carlo Dropout and the recently proposed Improved Variational Online Newton. These techniques are used to assess the trustworthiness of models trained to perform AF classification and BP regression from raw PPG time series. We find that the choice of hyperparameters has a considerable effect on the predictive performance of the models and on the quality and composition of predicted uncertainties. E.g. the stochasticity of the model parameter sampling determines the proportion of the total uncertainty that is aleatoric, and has varying effects on predictive performance and calibration quality dependent on the chosen uncertainty quantification technique and the chosen expression of uncertainty. We find significant discrepancy in the quality of uncertainties over the predicted classes, emphasising the need for a thorough evaluation protocol that assesses local and adaptive calibration. This work suggests that the choice of hyperparameters must be carefully tuned to balance predictive performance and calibration quality, and that the optimal parameterisation may vary depending on the chosen expression of uncertainty.

arxiv情報

著者 Ciaran Bench,Vivek Desai,Mohammad Moulaeifard,Nils Strodthoff,Philip Aston,Andrew Thompson
発行日 2025-05-16 16:21:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, eess.SP パーマリンク