要約
【タイトル】脳-コンピュータインターフェースにおけるジェスチャー認識のための畳み込みスパイキングネットワーク
【要約】
– 脳-コンピュータインターフェースは、様々な治療目的のために検討されている。
– 通常、これは脳活動を電気生理学的技術(電気生理学的グラフ、脳波など)で測定・解析し、外部デバイスを駆動することから構成される。
– しかし、測定の固有のノイズや変動性により、これらの信号の解析は困難で、オフライン処理と膨大な計算資源が必要となる。
– 本論文では、脳信号に基づいた手のジェスチャー分類の問題に対する、シンプルで効率的な機械学習ベースのアプローチを提案する。
– 我々は、スパイキングニューラルネットワークを用いた畳み込みスパイキングニューラルネットワークのハイブリッド機械学習アプローチを使用して、生体発火イベント駆動型シナプス可塑性ルールを採用し、測定されたアナログ信号をスパイクドメインにエンコードして、非監視特徴学習を行う。
– このアプローチが、EEGデータと脳表面グラフィックデータ(ECoG)の両方を使用して、異なる被験者に汎用的であり、異なる手のジェスチャークラスと運動イメージングタスクを識別する場合に優れた精度を示すことを示した。精度は、92.74-97.07%の範囲内です。
要約(オリジナル)
Brain-computer interfaces are being explored for a wide variety of therapeutic applications. Typically, this involves measuring and analyzing continuous-time electrical brain activity via techniques such as electrocorticogram (ECoG) or electroencephalography (EEG) to drive external devices. However, due to the inherent noise and variability in the measurements, the analysis of these signals is challenging and requires offline processing with significant computational resources. In this paper, we propose a simple yet efficient machine learning-based approach for the exemplary problem of hand gesture classification based on brain signals. We use a hybrid machine learning approach that uses a convolutional spiking neural network employing a bio-inspired event-driven synaptic plasticity rule for unsupervised feature learning of the measured analog signals encoded in the spike domain. We demonstrate that this approach generalizes to different subjects with both EEG and ECoG data and achieves superior accuracy in the range of 92.74-97.07% in identifying different hand gesture classes and motor imagery tasks.
arxiv情報
著者 | Yiming Ai,Bipin Rajendran |
発行日 | 2023-04-27 10:39:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI