要約
聴覚空間注意検出 (ASAD) は、複数話者の設定で EEG を使用して注目の空間位置をデコードすることを目的としています。
ASAD 手法は、聴覚空間注意の処理中の皮質神経反応の脳の側方化にインスピレーションを得ており、神経記録による聴覚注意デコード (AAD) のタスクに対して有望なパフォーマンスを示します。
以前の ASAD 方法では、EEG 電極の空間分布が十分に活用されていないため、これらの方法のパフォーマンスが制限される可能性があります。
本研究では、元の脳波チャネルを二次元(2D)空間トポロジーマップに変換することにより、EEGデータは時空間情報を含む三次元(3D)配置に変換されます。
次に、3D ディープ畳み込みニューラル ネットワーク (DenseNet-3D) を使用して、注目する位置のニューラル表現の時間的および空間的特徴を抽出します。
結果は、提案された方法が、広く使用されている KULeuven (KUL) データセットの 1 秒の決定ウィンドウで、最先端 (SOTA) 方法よりも高いデコード精度 (XANet の 90.6% と比較して 94.4%) を達成することを示しています。
私たちの作業を実装するコードは Github で入手できます: https://github.com/xuxiran/ASAD_DenseNet
要約(オリジナル)
Auditory spatial attention detection (ASAD) aims to decode the attended spatial location with EEG in a multiple-speaker setting. ASAD methods are inspired by the brain lateralization of cortical neural responses during the processing of auditory spatial attention, and show promising performance for the task of auditory attention decoding (AAD) with neural recordings. In the previous ASAD methods, the spatial distribution of EEG electrodes is not fully exploited, which may limit the performance of these methods. In the present work, by transforming the original EEG channels into a two-dimensional (2D) spatial topological map, the EEG data is transformed into a three-dimensional (3D) arrangement containing spatial-temporal information. And then a 3D deep convolutional neural network (DenseNet-3D) is used to extract temporal and spatial features of the neural representation for the attended locations. The results show that the proposed method achieves higher decoding accuracy than the state-of-the-art (SOTA) method (94.4% compared to XANet’s 90.6%) with 1-second decision window for the widely used KULeuven (KUL) dataset, and the code to implement our work is available on Github: https://github.com/xuxiran/ASAD_DenseNet
arxiv情報
著者 | Xiran Xu,Bo Wang,Yujie Yan,Xihong Wu,Jing Chen |
発行日 | 2023-09-14 13:07:36+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google