要約
この研究では、BERT ベースのモデルを活用した、EEG ベースの発作検出のための新しいアプローチを紹介します。
モデル BENDR は 2 段階のトレーニング プロセスを経ます。
最初に、一般的な EEG データ パターンを抽出するために、10,000 人以上の被験者を含む 1.5 TB のデータセットである大規模なテンプル大学病院 EEG コーパス (TUEG) で事前トレーニングされます。
続いて、モデルは、24 人の小児患者からの 664 件の EEG 記録で構成されている CHB-MIT 頭皮 EEG データベース上で微調整され、そのうち 198 件には発作事象が含まれています。
主な貢献には、CHB-MIT データセットの微調整の最適化が含まれます。これにより、モデル アーキテクチャ、前処理、後処理技術の影響が徹底的に検査され、感度が向上し、時間あたりの誤検知 (FP/h) が削減されます。
また、最も効果的なセットアップを確認するためのカスタム トレーニング戦略も検討しました。
モデルは、被験者固有の微調整の前に新しい 2 回目の事前トレーニング フェーズを経て、一般化機能が強化されます。
最適化されたモデルは大幅なパフォーマンスの向上を示し、ベースライン モデルよりも 2.5 倍低い 0.23 FP/h を達成し、感度は低いものの許容範囲内であり、EEG に BERT ベースのアプローチを適用する有効性を示しています。
ベースの発作検出。
要約(オリジナル)
This study presents a novel approach for EEG-based seizure detection leveraging a BERT-based model. The model, BENDR, undergoes a two-phase training process. Initially, it is pre-trained on the extensive Temple University Hospital EEG Corpus (TUEG), a 1.5 TB dataset comprising over 10,000 subjects, to extract common EEG data patterns. Subsequently, the model is fine-tuned on the CHB-MIT Scalp EEG Database, consisting of 664 EEG recordings from 24 pediatric patients, of which 198 contain seizure events. Key contributions include optimizing fine-tuning on the CHB-MIT dataset, where the impact of model architecture, pre-processing, and post-processing techniques are thoroughly examined to enhance sensitivity and reduce false positives per hour (FP/h). We also explored custom training strategies to ascertain the most effective setup. The model undergoes a novel second pre-training phase before subject-specific fine-tuning, enhancing its generalization capabilities. The optimized model demonstrates substantial performance enhancements, achieving as low as 0.23 FP/h, 2.5$\times$ lower than the baseline model, with a lower but still acceptable sensitivity rate, showcasing the effectiveness of applying a BERT-based approach on EEG-based seizure detection.
arxiv情報
著者 | Luca Benfenati,Thorir Mar Ingolfsson,Andrea Cossettini,Daniele Jahier Pagliari,Alessio Burrello,Luca Benini |
発行日 | 2024-06-27 14:09:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google