要約
生のEEGデータから複雑な脳のダイナミクスに関連する情報を処理して抽出する深層学習の能力は、最近のさまざまな研究で実証されています。
ただし、深層学習モデルは、大規模なデータコーパスで最高のパフォーマンスを発揮することも示されています。
EEG を処理する場合、さまざまな実験からの EEG データセットを組み合わせて大規模な深層学習モデルをトレーニングするのが自然なアプローチです。
ただし、ほとんどの EEG 実験ではカスタム チャネル モンタージュが使用されるため、データを共通空間に変換する必要があります。
これまでの方法では、生の EEG 信号を使用して対象の特徴を抽出し、EEG データセット全体で共通の特徴空間を使用することに重点を置いていました。
これは賢明なアプローチではありますが、EEG 生データの潜在的な豊富さが十分に活用されていません。
ここでは、EEG 電極座標に適用される空間的注意を使用して、生の EEG データのチャネル調和を実行し、さまざまなモンタージュを使用して EEG データの深層学習をトレーニングできるようにすることを検討します。
このモデルを性別分類タスクでテストします。
まず、空間的注意がモデルのパフォーマンスを向上させることを示します。
次に、さまざまなチャネル モンタージュを使用してデータでトレーニングされた深層学習モデルのパフォーマンスが、固定の 23 チャネルおよび 128 チャネルのデータ モンタージュでトレーニングされた深層学習モデルよりも大幅に優れていることを示します。
要約(オリジナル)
The ability of Deep Learning to process and extract relevant information in complex brain dynamics from raw EEG data has been demonstrated in various recent works. Deep learning models, however, have also been shown to perform best on large corpora of data. When processing EEG, a natural approach is to combine EEG datasets from different experiments to train large deep-learning models. However, most EEG experiments use custom channel montages, requiring the data to be transformed into a common space. Previous methods have used the raw EEG signal to extract features of interest and focused on using a common feature space across EEG datasets. While this is a sensible approach, it underexploits the potential richness of EEG raw data. Here, we explore using spatial attention applied to EEG electrode coordinates to perform channel harmonization of raw EEG data, allowing us to train deep learning on EEG data using different montages. We test this model on a gender classification task. We first show that spatial attention increases model performance. Then, we show that a deep learning model trained on data using different channel montages performs significantly better than deep learning models trained on fixed 23- and 128-channel data montages.
arxiv情報
著者 | Dung Truong,Muhammad Abdullah Khalid,Arnaud Delorme |
発行日 | 2023-10-16 16:17:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google