xEEGNet: Towards Explainable AI in EEG Dementia Classification

要約

この作業は、EEGデータ分析のための斬新でコンパクトで説明可能なニューラルネットワークであるXeegnetを提示します。
それは完全に解釈可能であり、主要なパラメーターの削減を通じて過剰適合を減らします。
アプリケーションのユースケースとして、一般的な認知症の状態、アルツハイマー病および前頭側頭型認知症、対照の分類に焦点を当てました。
Xeegnetは、スペクトルの変化を伴う他の神経学的状態に広く適用できます。
最初に、Eegnet-Familyのシンプルで人気のあるモデルであるShallownetを使用しました。
その構造を分析し、徐々に修正して、パフォーマンスを損なうことなく、「ブラックボックス」からより透明なモデルに移動しました。
学習したカーネルとウェイトは、医療関連を評価するために臨床的観点から調べられました。
Shallownetおよび最終Xeegnetを含むモデルバリアントは、不偏パフォーマンスの推定値のために、堅牢なネストされた葉n-subjects-Out Cross-validationを使用して評価されました。
データスプリット間の変動性は、グループの区別を定量化するためにペアワイズ分離性を使用して、クラスとセットによってグループ化された埋め込み式EEG表現を使用して説明されました。
過剰適合は、トレーニング検証損失の相関とトレーニング速度を通じて評価されました。
Xeegnetは168のパラメーターのみを使用し、Shallownetの200倍少なくなりますが、解釈可能性を保持し、過度に抵抗し、同等の中央値パフォーマンス(-1.5%)を達成し、分割全体の変動を低下させます。
この変動性は、埋め込まれたEEG表現によって説明されます。より高い精度は、テストセットコントロールとアルツハイマー病の症例との間のより大きな分離と相関し、トレーニングデータから大きな影響を与えません。
特定のEEGバンドをフィルタリングし、バンド固有の地形を学習し、関連するスペクトル機能を使用するXeegnetの機能は、その解釈可能性を示しています。
大規模な深い学習モデルはパフォーマンスのために優先順位を付けることがよくありますが、この研究では、Xeegnetのような小さなアーキテクチャがEEG病理学の分類に等しく効果的であることを示しています。

要約(オリジナル)

This work presents xEEGNet, a novel, compact, and explainable neural network for EEG data analysis. It is fully interpretable and reduces overfitting through major parameter reduction. As an applicative use case, we focused on classifying common dementia conditions, Alzheimer’s and frontotemporal dementia, versus controls. xEEGNet is broadly applicable to other neurological conditions involving spectral alterations. We initially used ShallowNet, a simple and popular model from the EEGNet-family. Its structure was analyzed and gradually modified to move from a ‘black box’ to a more transparent model, without compromising performance. The learned kernels and weights were examined from a clinical standpoint to assess medical relevance. Model variants, including ShallowNet and the final xEEGNet, were evaluated using robust Nested-Leave-N-Subjects-Out cross-validation for unbiased performance estimates. Variability across data splits was explained using embedded EEG representations, grouped by class and set, with pairwise separability to quantify group distinction. Overfitting was assessed through training-validation loss correlation and training speed. xEEGNet uses only 168 parameters, 200 times fewer than ShallowNet, yet retains interpretability, resists overfitting, achieves comparable median performance (-1.5%), and reduces variability across splits. This variability is explained by embedded EEG representations: higher accuracy correlates with greater separation between test set controls and Alzheimer’s cases, without significant influence from training data. xEEGNet’s ability to filter specific EEG bands, learn band-specific topographies, and use relevant spectral features demonstrates its interpretability. While large deep learning models are often prioritized for performance, this study shows smaller architectures like xEEGNet can be equally effective in EEG pathology classification.

arxiv情報

著者 Andrea Zanola,Louis Fabrice Tshimanga,Federico Del Pup,Marco Baiesi,Manfredo Atzori
発行日 2025-04-30 09:24:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク