EEGSN: Towards Efficient Low-latency Decoding of EEG with Graph Spiking Neural Networks

要約

タイトル:EEGSN:グラフスパイキングニューラルネットワークを使用したEEGの効率的かつ低遅延なデコードに向けて

要約:
-ほとんどのスパイキングニューラルネットワーク(SNN)は一般的な帰納バイアスを用いて訓練されており、低遅延・低消費電力が必要な重要なタスクには適合しない。脳の振る舞いを推定するために脳波信号を使用する場合、学習の状況によって、時空間的な相関関係が例となる。
-SNNは、さまざまなデータストリーム間の動的関係をモデル化するために一般的な帰納バイアスに完全に依存している。
-本論文では、分散EEGセンサーに存在する動的関係情報を学習するためのグラフスパイキングニューラルネットワークアーキテクチャを提案する。
-EEGSNは、モータ実行分類タスクにおいて、最先端のSNNと比較して、推論計算量を$\times20$削減し、同等の精度を達成した。
-全体として、本研究は、解釈可能で効率的なグラフスパイキングネットワークの訓練フレームワークを提供し、低遅延・低消費電力のリアルタイムアプリケーションに適している。

【要点】
-大多数のSNNは、重要なタスクに対応できない一般的な帰納バイアスを使用して訓練されている。
-EEG信号を使用した脳の振る舞いの推定は、動的相関関係によって学習と推論の効率が大幅に影響を受ける。
-SNNは、データストリーム間の動的関係を一般的な帰納バイアスに完全に依存している。
-グラフスパイキングニューラルネットワークアーキテクチャを使用することで、分散EEGセンサーに存在する動的関係情報を学習することができる。
-EEGSNは最先端のSNNと比較して、推論計算量を$\times20$削減し、同等の精度を達成した。
-EEGSNは、解釈可能で効率的なグラフスパイキングネットワークの訓練フレームワークを提供し、低遅延・低消費電力のリアルタイムアプリケーションに適している。

要約(オリジナル)

A vast majority of spiking neural networks (SNNs) are trained based on inductive biases that are not necessarily a good fit for several critical tasks that require low-latency and power efficiency. Inferring brain behavior based on the associated electroenchephalography (EEG) signals is an example of how networks training and inference efficiency can be heavily impacted by learning spatio-temporal dependencies. Up to now, SNNs rely solely on general inductive biases to model the dynamic relations between different data streams. Here, we propose a graph spiking neural network architecture for multi-channel EEG classification (EEGSN) that learns the dynamic relational information present in the distributed EEG sensors. Our method reduced the inference computational complexity by $\times 20$ compared to the state-of-the-art SNNs, while achieved comparable accuracy on motor execution classification tasks. Overall, our work provides a framework for interpretable and efficient training of graph spiking networks that are suitable for low-latency and low-power real-time applications.

arxiv情報

著者 Xi Chen,Siwei Mai,Konstantinos Michmizos
発行日 2023-04-15 23:30:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.HC, cs.LG, cs.NE パーマリンク