Contrast Everything: A Hierarchical Contrastive Framework for Medical Time-Series

要約

対比的表現学習は、手間がかかり、ドメイン固有で、希少な専門家のアノテーションへの依存を軽減するため、医療時系列分析において極めて重要である。しかし、既存の対比学習手法は、主に1つのデータレベルに焦点を当てており、医療時系列の複雑な性質を十分に活用できていない。この問題に対処するために、我々は、医療時系列に内在する全てのレベルのデータの一貫性を活用する革新的な階層的フレームワークであるCOMETを提示する。我々の綿密に設計されたモデルは、観察、サンプル、トライアル、患者レベルという4つの潜在的なレベルからデータの一貫性を体系的に捉える。複数のレベルで対照的な損失を開発することにより、包括的なデータの一貫性を保持する効果的な表現を学習し、自己教師ありの方法で情報利用を最大化することができる。我々は、患者に依存しない困難な設定で実験を行う。心筋梗塞の心電図信号、アルツハイマー病とパーキンソン病の脳波信号を含む3つの多様なデータセットを用いて、COMETを6つのベースラインと比較した。その結果、COMETは全てのデータセットにおいて、特にラベル付きデータの割合が10%と1%のセットアップにおいて、全てのベースラインを一貫して凌駕することが実証された。これらの結果は、医療時系列に対する対照的表現学習技術を進歩させる上で、我々のフレームワークが大きなインパクトを持つことを強調している。ソースコードはhttps://github.com/DL4mHealth/COMET。

要約(オリジナル)

Contrastive representation learning is crucial in medical time series analysis as it alleviates dependency on labor-intensive, domain-specific, and scarce expert annotations. However, existing contrastive learning methods primarily focus on one single data level, which fails to fully exploit the intricate nature of medical time series. To address this issue, we present COMET, an innovative hierarchical framework that leverages data consistencies at all inherent levels in medical time series. Our meticulously designed model systematically captures data consistency from four potential levels: observation, sample, trial, and patient levels. By developing contrastive loss at multiple levels, we can learn effective representations that preserve comprehensive data consistency, maximizing information utilization in a self-supervised manner. We conduct experiments in the challenging patient-independent setting. We compare COMET against six baselines using three diverse datasets, which include ECG signals for myocardial infarction and EEG signals for Alzheimer’s and Parkinson’s diseases. The results demonstrate that COMET consistently outperforms all baselines, particularly in setup with 10% and 1% labeled data fractions across all datasets. These results underscore the significant impact of our framework in advancing contrastive representation learning techniques for medical time series. The source code is available at https://github.com/DL4mHealth/COMET.

arxiv情報

著者 Yihe Wang,Yu Han,Haishuai Wang,Xiang Zhang
発行日 2023-11-06 17:49:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG パーマリンク