要約
心電図 (ECG) は、広く普及している診断検査です。
従来のタスク固有の ECG 分析モデルでは、トレーニングするために大量の高価な ECG アノテーションまたは関連ラベルが必要です。
転移学習技術は一般化を改善し、ラベル付きデータへの依存を減らすことが示されています。
我々は、ECG 解析のためのオープン基盤モデルである ECG-FM を提示し、公的および民間機関の両方のソースから取得した 166 万件の ECG のデータセットに対して実行される包括的な研究を実施します。
ECG-FM はトランスベースのアーキテクチャを採用しており、ECG 固有の拡張と対比学習、および連続信号マスキング目標を使用して 250 万サンプルで事前トレーニングされています。
当社の透明性のある評価には、ECG 解釈ラベル、左心室駆出率の低下、心筋トロポニンの異常を予測する、さまざまな下流タスクが含まれます。
基礎モデルとしての ECG-FM の有効性を確認し、コンテキスト情報のコマンドが強力なパフォーマンス、豊富な事前学習済みの埋め込み、および信頼性の高い解釈可能性をどのようにもたらすかを実証します。
オープンウェイトの実践が不足しているため、基礎モデルの採用という点で ECG 分析が他の医療機械学習サブ分野に比べてどのように遅れているかを強調します。
私たちのコードは https://github.com/bowang-lab/ECG-FM/ で入手できます。
要約(オリジナル)
The electrocardiogram (ECG) is a ubiquitous diagnostic test. Conventional task-specific ECG analysis models require large numbers of expensive ECG annotations or associated labels to train. Transfer learning techniques have been shown to improve generalization and reduce reliance on labeled data. We present ECG-FM, an open foundation model for ECG analysis, and conduct a comprehensive study performed on a dataset of 1.66 million ECGs sourced from both publicly available and private institutional sources. ECG-FM adopts a transformer-based architecture and is pretrained on 2.5 million samples using ECG-specific augmentations and contrastive learning, as well as a continuous signal masking objective. Our transparent evaluation includes a diverse range of downstream tasks, where we predict ECG interpretation labels, reduced left ventricular ejection fraction, and abnormal cardiac troponin. Affirming ECG-FM’s effectiveness as a foundation model, we demonstrate how its command of contextual information results in strong performance, rich pretrained embeddings, and reliable interpretability. Due to a lack of open-weight practices, we highlight how ECG analysis is lagging behind other medical machine learning subfields in terms of foundation model adoption. Our code is available at https://github.com/bowang-lab/ECG-FM/.
arxiv情報
著者 | Kaden McKeen,Laura Oliva,Sameer Masood,Augustin Toma,Barry Rubin,Bo Wang |
発行日 | 2024-08-09 17:06:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google