要約
この記事では、多特徴融合と双方向長短期記憶 (Bi-LSTM) を使用した、心電図 (ECG) ベースの心拍分類のためのリソース効率の高いアプローチを紹介します。
このデータセットは、MIT-BIH 不整脈データベースの 5 つのオリジナル クラスで構成されています。正常 (N)、左脚ブロック (LBBB)、右脚ブロック (RBBB)、心室性期外収縮 (PVC)、およびペースビート (PB) です。
離散ウェーブレット変換やデュアル移動平均ウィンドウなどの前処理方法を使用して、生の ECG 信号のノイズとアーティファクトを低減し、ECG 波形の主要点 (PQRST) を抽出します。
複数特徴の融合は、時間間隔と、本質的にノイズに対して堅牢である提案された曲線下領域を入力特徴として利用することによって達成されます。
シミュレーションの結果、カーブ下領域の特徴を組み込むことで、困難な RBBB および LBBB クラスの分類精度が RBBB で 31.4\% から 84.3\% に、LBBB で 69.6\% から 87.0\% に向上することが実証されました。
従来の LSTM ネットワークではなく Bi-LSTM ネットワークを使用すると、精度が向上し (33.8\% 対 21.8\%)、RBBB クラスに必要なネットワーク パラメータが 28\% 削減されました。
小型 (84k)、小型 (150k)、中型 (478k)、大型 (1.25M) モデルなど、さまざまなパラメーター サイズを持つ複数のニューラル ネットワーク モデルが、より重要な \textit{全クラス} の高精度を達成するために開発されています。
全体的な分類精度よりも難しい目標です。
要約(オリジナル)
In this article, we present a resource-efficient approach for electrocardiogram (ECG) based heartbeat classification using multi-feature fusion and bidirectional long short-term memory (Bi-LSTM). The dataset comprises five original classes from the MIT-BIH Arrhythmia Database: Normal (N), Left Bundle Branch Block (LBBB), Right Bundle Branch Block (RBBB), Premature Ventricular Contraction (PVC), and Paced Beat (PB). Preprocessing methods including the discrete wavelet transform and dual moving average windows are used to reduce noise and artifacts in the raw ECG signal, and extract the main points (PQRST) of the ECG waveform. Multi-feature fusion is achieved by utilizing time intervals and the proposed under-the-curve areas, which are inherently robust against noise, as input features. Simulations demonstrated that incorporating under-the-curve area features improved the classification accuracy for the challenging RBBB and LBBB classes from 31.4\% to 84.3\% for RBBB, and from 69.6\% to 87.0\% for LBBB. Using a Bi-LSTM network, rather than a conventional LSTM network, resulted in higher accuracy (33.8\% vs 21.8\%) with a 28\% reduction in required network parameters for the RBBB class. Multiple neural network models with varying parameter sizes, including tiny (84k), small (150k), medium (478k), and large (1.25M) models, are developed to achieve high accuracy \textit{across all classes}, a more crucial and challenging goal than overall classification accuracy.
arxiv情報
著者 | Reza Nikandish,Jiayu He,Benyamin Haghi |
発行日 | 2024-12-13 15:48:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google