LEAD: Large Foundation Model for EEG-Based Alzheimer’s Disease Detection

要約

脳波(EEG)は、アルツハイマー病(AD)検出に対して、非侵襲的で非常にアクセスしやすく、費用対効果の高いソリューションを提供します。
ただし、既存の方法は、手動機能の抽出であろうと深い学習に基づいていても、2つの主要な課題に直面しています。これは、堅牢な機能学習と評価のための大規模なデータセットの欠如と、被験者間の変動による検出パフォーマンスの低下です。
これらの課題に対処するために、813人の被験者を含むEEG-ADコーパスをキュレートします。
この一意のデータセットを使用して、EEGベースの広告検出の最初の大きな基礎モデルであるLeadを提案します。
私たちの方法には、データの選択や前処理から、自己監視の対照的な前提、微調整、および主題に依存しない評価、主題レベルの検出の多数票などの主要なセットアップまで、パイプライン全体が含まれます。
11のEEGデータセットでモデルを事前にトレーニングし、5つの広告データセットで微調整しました。
私たちの自己監督の事前トレーニングデザインには、有用な一般的なEEG機能を抽出するためのサンプルレベルと主題レベルの対照が含まれています。
微調整は、5つのチャネルに配置されたデータセットで一緒に実行されます。
バックボーンエンコーダーには、時間的およびチャネル埋め込みが組み込まれており、時間的および空間的寸法の両方にわたって機能をキャプチャします。
私たちの方法は、優れた広告検出パフォーマンスを示しており、最先端の方法と比較して、サンプルレベルでF1スコアが最大9.86%増加し、主題レベルで最大9.31%増加します。
私たちのモデルの結果は、被験者間変動に対処するための対照的なプリトレーニングおよびチャネル整列の統一された微調整の有効性を強く確認しています。
ソースコードはhttps://github.com/dl4mhealth/leadにあります。

要約(オリジナル)

Electroencephalogram (EEG) provides a non-invasive, highly accessible, and cost-effective solution for Alzheimer’s Disease (AD) detection. However, existing methods, whether based on manual feature extraction or deep learning, face two major challenges: the lack of large-scale datasets for robust feature learning and evaluation, and poor detection performance due to inter-subject variations. To address these challenges, we curate an EEG-AD corpus containing 813 subjects, which forms the world’s largest EEG-AD dataset to the best of our knowledge. Using this unique dataset, we propose LEAD, the first large foundation model for EEG-based AD detection. Our method encompasses an entire pipeline, from data selection and preprocessing to self-supervised contrastive pretraining, fine-tuning, and key setups such as subject-independent evaluation and majority voting for subject-level detection. We pre-train the model on 11 EEG datasets and unified fine-tune it on 5 AD datasets. Our self-supervised pre-training design includes sample-level and subject-level contrasting to extract useful general EEG features. Fine-tuning is performed on 5 channel-aligned datasets together. The backbone encoder incorporates temporal and channel embeddings to capture features across both temporal and spatial dimensions. Our method demonstrates outstanding AD detection performance, achieving up to a 9.86% increase in F1 score at the sample-level and up to a 9.31% at the subject-level compared to state-of-the-art methods. The results of our model strongly confirm the effectiveness of contrastive pre-training and channel-aligned unified fine-tuning for addressing inter-subject variation. The source code is at https://github.com/DL4mHealth/LEAD.

arxiv情報

著者 Yihe Wang,Nan Huang,Nadia Mammone,Marco Cecchi,Xiang Zhang
発行日 2025-02-10 17:11:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CE, cs.LG, eess.SP パーマリンク