要約
作業記憶 (WM) は、心に一時的に保存される情報を意味し、人間の認知分野における基本的な研究テーマです。
脳の電気的活動を監視できる脳波計 (EEG) は、WM のレベルの測定に広く使用されています。
ただし、重要な課題の 1 つは、特に確立されたモデルがなじみのない主題に遭遇した場合に、個人差が無効な結果を引き起こす可能性があることです。
この作業では、被験者間のワークロード分類を一般化するために、空間的注意を備えた被験者間の深い適応モデル (CS-DASA) を提案します。
まず、EEG 時系列を、空間、スペクトル、および時間情報を組み込んだマルチフレーム EEG 画像に変換します。
まず、CS-DASA の Subject-Shared モジュールが、ソースとターゲットの両方の被験者からマルチフレーム EEG 画像データを受け取り、共通の特徴表現を学習します。
次に、サブジェクト固有のモジュールで、最大平均不一致を実装して、再生カーネル ヒルベルト空間のドメイン分布発散を測定します。これにより、ドメイン適応に効果的なペナルティ損失が追加される可能性があります。
さらに、対象画像データから識別可能な空間的特徴に焦点を当てるために、対象から対象への空間的注意機構が採用される。
13 の被験者を含む公共の WM EEG データセットで実施された実験は、提案されたモデルが既存の最先端の方法よりも優れたパフォーマンスを達成できることを示しています。
要約(オリジナル)
Working memory (WM), denoting the information temporally stored in the mind, is a fundamental research topic in the field of human cognition. Electroencephalograph (EEG), which can monitor the electrical activity of the brain, has been widely used in measuring the level of WM. However, one of the critical challenges is that individual differences may cause ineffective results, especially when the established model meets an unfamiliar subject. In this work, we propose a cross-subject deep adaptation model with spatial attention (CS-DASA) to generalize the workload classifications across subjects. First, we transform EEG time series into multi-frame EEG images incorporating spatial, spectral, and temporal information. First, the Subject-Shared module in CS-DASA receives multi-frame EEG image data from both source and target subjects and learns the common feature representations. Then, in the subject-specific module, the maximum mean discrepancy is implemented to measure the domain distribution divergence in a reproducing kernel Hilbert space, which can add an effective penalty loss for domain adaptation. Additionally, the subject-to-subject spatial attention mechanism is employed to focus on the discriminative spatial features from the target image data. Experiments conducted on a public WM EEG dataset containing 13 subjects show that the proposed model is capable of achieving better performance than existing state-of-the-art methods.
arxiv情報
著者 | Junfu Chen,Xiaoyi Jiang,Yang Chen,Bi Wang |
発行日 | 2022-07-29 10:16:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google