Unsupervised Pre-Training Using Masked Autoencoders for ECG Analysis

要約

教師なし学習手法は、データセットの大規模な利用とコンピュータ ビジョンおよび自然言語処理タスクの精度の向上が証明されているため、深層学習においてますます重要になっています。
教師なし学習手法を他の領域に拡張する傾向が高まっており、大量のラベルなしデータの利用に役立ちます。
この論文では、心電図 (ECG) 信号のマスクされたオートエンコーダー (MAE) に基づく教師なし事前トレーニング手法を提案します。
さらに、ECG 分析の完全なフレームワークを形成するために、タスク固有の微調整を提案します。
このフレームワークは高レベルで汎用的であり、特定のモデル アーキテクチャやタスクに個別に適合するものではありません。
実験はさまざまなモデル アーキテクチャと大規模なデータセットを使用して実施され、ECG 不整脈分類タスクの MITDB データセットで 94.39% の精度が得られました。
結果は、完全に教師ありの方法と比較して、提案されたアプローチのこれまでに見たことのないデータの分類のパフォーマンスが優れていることを示しています。

要約(オリジナル)

Unsupervised learning methods have become increasingly important in deep learning due to their demonstrated large utilization of datasets and higher accuracy in computer vision and natural language processing tasks. There is a growing trend to extend unsupervised learning methods to other domains, which helps to utilize a large amount of unlabelled data. This paper proposes an unsupervised pre-training technique based on masked autoencoder (MAE) for electrocardiogram (ECG) signals. In addition, we propose a task-specific fine-tuning to form a complete framework for ECG analysis. The framework is high-level, universal, and not individually adapted to specific model architectures or tasks. Experiments are conducted using various model architectures and large-scale datasets, resulting in an accuracy of 94.39% on the MITDB dataset for ECG arrhythmia classification task. The result shows a better performance for the classification of previously unseen data for the proposed approach compared to fully supervised methods.

arxiv情報

著者 Guoxin Wang,Qingyuan Wang,Ganesh Neelakanta Iyer,Avishek Nag,Deepu John
発行日 2023-10-17 11:19:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.SP パーマリンク