要約
フォトプレチスモグラフィ(PPG)は、バイオシグナルと心血管の健康を監視するための主要な非侵襲的手法であり、臨床環境と消費者ウェアラブルデバイスの両方で広範囲に採用されています。
PPG信号でトレーニングされた機械学習モデルは約束を示していますが、タスク固有であり、一般化に苦労する傾向があります。
現在の研究は、単一デバイスのデータセットの使用、領域外の一般化の不十分な調査、および再現性を妨げる公的に利用可能なモデルの欠如によって制限されています。
これらの制限に対処するために、PPG信号の最初のオープンファンデーションモデルであるPapageiを提示します。
このモデルは、57,000時間以上のデータで事前に訓練されており、公開されているデータセットから2,000万個の非標識PPGセグメントを含む。
個人間でPPGシグナルの形態に関するドメインの知識を活用する新しい表現学習アプローチを紹介し、従来の対照学習方法と比較してより豊富な表現をキャプチャできるようにします。
心血管系の健康、睡眠障害、妊娠監視、福祉の評価にまたがる10の多様なデータセットからの20のタスクにわたる最先端の時系列財団モデルと自己監視学習ベンチマークに対してPapageiを評価します。
私たちのモデルは、優れたパフォーマンスを実証し、少なくとも14のタスクでそれぞれ分類と回帰メトリックを改善します。
特に、Papageiはこれらの結果を達成しながら、よりデータとパラメーター効率の良い、70倍の大きいモデルであるモデルです。
精度を超えて、さまざまなスキントーンにわたるモデルの堅牢性を調べ、将来のモデルでのバイアス評価のベンチマークを確立します。
Papageiは、マルチモーダルモデル用の特徴抽出器とエンコーダーの両方として機能し、マルチモーダルヘルスモニタリングの新しい機会を開きます。
要約(オリジナル)
Photoplethysmography (PPG) is the leading non-invasive technique for monitoring biosignals and cardiovascular health, with widespread adoption in both clinical settings and consumer wearable devices. While machine learning models trained on PPG signals have shown promise, they tend to be task-specific and struggle with generalization. Current research is limited by the use of single-device datasets, insufficient exploration of out-of-domain generalization, and a lack of publicly available models, which hampers reproducibility. To address these limitations, we present PaPaGei, the first open foundation model for PPG signals. The model is pre-trained on over 57,000 hours of data, comprising 20 million unlabeled PPG segments from publicly available datasets. We introduce a novel representation learning approach that leverages domain knowledge of PPG signal morphology across individuals, enabling the capture of richer representations compared to traditional contrastive learning methods. We evaluate PaPaGei against state-of-the-art time-series foundation models and self-supervised learning benchmarks across 20 tasks from 10 diverse datasets, spanning cardiovascular health, sleep disorders, pregnancy monitoring, and wellbeing assessment. Our model demonstrates superior performance, improving classification and regression metrics by 6.3% and 2.9% respectively in at least 14 tasks. Notably, PaPaGei achieves these results while being more data- and parameter-efficient, outperforming models that are 70x larger. Beyond accuracy, we examine model robustness across different skin tones, establishing a benchmark for bias evaluation in future models. PaPaGei can serve as both a feature extractor and an encoder for multimodal models, opening up new opportunities for multimodal health monitoring.
arxiv情報
著者 | Arvind Pillai,Dimitris Spathis,Fahim Kawsar,Mohammad Malekzadeh |
発行日 | 2025-02-05 16:14:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google