HeartBERT: A Self-Supervised ECG Embedding Model for Efficient and Effective Medical Signal Analysis

要約

HeartBertモデルは、心電図(ECG)信号を解析する機械学習システムにおいて、ラベル付きデータの必要性を減らし、計算リソースを最小化し、同時に性能を向上させるという3つの主な目的で導入された。自然言語処理におけるBERT(Bidirectional Encoder Representations from Transformers)に触発され、自己教師付き学習アプローチで強化されたHeartBertモデルは、RoBERTaアーキテクチャ上に構築され、医療領域におけるECGベースのプロジェクトに合わせた洗練された埋め込みを生成する。提案モデルの多用途性、汎用性、および効率性を実証するために、2 つの主要な下流タスク(睡眠段階検出と心拍分類)が選択されている。HeartBERTベースのシステムは、双方向LSTMヘッドを利用し、複雑な課題に対処するように設計されている。HeartBERTの優位性と先進性を実証するために、一連の実用的な実験が実施され、特に、より少ないトレーニングデータセットで良好な性能を発揮する能力、学習パラメータの削減、ライバルモデルと比較した効果的な性能などが実証された。コードとデータは、https://github.com/ecgResearch/HeartBert で公開されている。

要約(オリジナル)

The HeartBert model is introduced with three primary objectives: reducing the need for labeled data, minimizing computational resources, and simultaneously improving performance in machine learning systems that analyze Electrocardiogram (ECG) signals. Inspired by Bidirectional Encoder Representations from Transformers (BERT) in natural language processing and enhanced with a self-supervised learning approach, the HeartBert model-built on the RoBERTa architecture-generates sophisticated embeddings tailored for ECG-based projects in the medical domain. To demonstrate the versatility, generalizability, and efficiency of the proposed model, two key downstream tasks have been selected: sleep stage detection and heartbeat classification. HeartBERT-based systems, utilizing bidirectional LSTM heads, are designed to address complex challenges. A series of practical experiments have been conducted to demonstrate the superiority and advancements of HeartBERT, particularly in terms of its ability to perform well with smaller training datasets, reduced learning parameters, and effective performance compared to rival models. The code and data are publicly available at https://github.com/ecgResearch/HeartBert.

arxiv情報

著者 Saedeh Tahery,Fatemeh Hamid Akhlaghi,Termeh Amirsoleimani
発行日 2025-04-04 13:53:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, eess.SP パーマリンク