Contrast Everything: A Hierarchical Contrastive Framework for Medical Time-Series

要約

対照表現学習は、労働集約的で領域固有の希少な専門家の注釈への依存を軽減するため、医療時系列分析において非常に重要です。
ただし、既存の対照学習方法は主に 1 つのデータ レベルに焦点を当てており、医療時系列の複雑な性質を十分に活用できません。
この問題に対処するために、医療時系列のすべての固有レベルでデータの一貫性を活用する革新的な階層フレームワークである COMET を紹介します。
当社の綿密に設計されたモデルは、観察レベル、サンプルレベル、治験レベル、患者レベルの 4 つの潜在的なレベルからデータの一貫性を体系的に取得します。
複数のレベルで対照的な損失を開発することにより、包括的なデータの一貫性を維持し、自己監視された方法で情報の利用を最大化する効果的な表現を学習できます。
私たちは、患者に依存しない困難な環境で実験を実施します。
心筋梗塞の ECG 信号とアルツハイマー病およびパーキンソン病の EEG 信号を含む 3 つの多様なデータセットを使用して、COMET を 6 つのベースラインと比較します。
結果は、COMET が一貫してすべてのベースラインを上回り、特にすべてのデータセットにわたって 10% および 1% のラベル付きデータ部分を使用したセットアップで優れていることを示しています。
これらの結果は、医療時系列の対比表現学習技術の進歩における私たちのフレームワークの重要な影響を強調しています。
ソース コードは https://github.com/DL4mHealth/COMET で入手できます。

要約(オリジナル)

Contrastive representation learning is crucial in medical time series analysis as it alleviates dependency on labor-intensive, domain-specific, and scarce expert annotations. However, existing contrastive learning methods primarily focus on one single data level, which fails to fully exploit the intricate nature of medical time series. To address this issue, we present COMET, an innovative hierarchical framework that leverages data consistencies at all inherent levels in medical time series. Our meticulously designed model systematically captures data consistency from four potential levels: observation, sample, trial, and patient levels. By developing contrastive loss at multiple levels, we can learn effective representations that preserve comprehensive data consistency, maximizing information utilization in a self-supervised manner. We conduct experiments in the challenging patient-independent setting. We compare COMET against six baselines using three diverse datasets, which include ECG signals for myocardial infarction and EEG signals for Alzheimer’s and Parkinson’s diseases. The results demonstrate that COMET consistently outperforms all baselines, particularly in setup with 10% and 1% labeled data fractions across all datasets. These results underscore the significant impact of our framework in advancing contrastive representation learning techniques for medical time series. The source code is available at https://github.com/DL4mHealth/COMET.

arxiv情報

著者 Yihe Wang,Yu Han,Haishuai Wang,Xiang Zhang
発行日 2023-10-24 17:13:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク