Neural Signal Compression using RAMAN tinyML Accelerator for BCI Applications

要約

高品質のマルチチャネル神経記録は、神経科学の研究と臨床応用に不可欠です。
大規模な脳記録は、特に数百または数千の電極を使用した高密度皮質内記録を使用して、特に脳コンピューターインターフェイス(BCI)で、その後のオフライン分析とデコードのためにワイヤレスで送信する必要がある膨大な量のデータをしばしば生成します。
ただし、生のニューラルデータを送信すると、通信帯域幅が限られており、その結果として過剰な加熱があるため、重大な課題があります。
この課題に対処するために、積極的なフィールドポテンシャル(LFP)に最大150の圧縮比を達成する畳み込み自動エンコーダー(CAE)を使用した神経信号圧縮スキームを提案します。
CAEエンコーダーセクションは、エッジコンピューティング用に設計されたエネルギー効率の高いTINIMLアクセラレータであるラマンに実装され、その後、37.3K LUTSと8.6Kレジスタの使用率を備えたEfinix TI60 FPGAに展開されます。
ラマンは、ゼロスキップ、ゲーティング、および重量圧縮技術を介して、活性化と重量のスパースを活用します。
さらに、ハードウェアを認識したバランスの取得確率的剪定戦略を使用して、CAEエンコーダーモデルのパラメーターを剪定することにより、ハードウェアソフトウェアの共同最適化を採用し、ワークロードの不均衡の問題を解決し、インデックス作成オーバーヘッドを排除してパラメーターストレージ要件を最大32.4%削減します。
提案されているコンパクトな深さに分離可能なコンボリューション(DS-CAE)モデルを使用して、ラマンからの圧縮ニューラルデータは、22.6 dBおよび27.4 dBの優れた信号と歪み比(SNDR)と、それぞれ0.81および0.94のR2スコアとともに、2つのモンキーネオラル記録で評価されたオフラインで再構築されます。

要約(オリジナル)

High-quality, multi-channel neural recording is indispensable for neuroscience research and clinical applications. Large-scale brain recordings often produce vast amounts of data that must be wirelessly transmitted for subsequent offline analysis and decoding, especially in brain-computer interfaces (BCIs) utilizing high-density intracortical recordings with hundreds or thousands of electrodes. However, transmitting raw neural data presents significant challenges due to limited communication bandwidth and resultant excessive heating. To address this challenge, we propose a neural signal compression scheme utilizing Convolutional Autoencoders (CAEs), which achieves a compression ratio of up to 150 for compressing local field potentials (LFPs). The CAE encoder section is implemented on RAMAN, an energy-efficient tinyML accelerator designed for edge computing, and subsequently deployed on an Efinix Ti60 FPGA with 37.3k LUTs and 8.6k register utilization. RAMAN leverages sparsity in activation and weights through zero skipping, gating, and weight compression techniques. Additionally, we employ hardware-software co-optimization by pruning CAE encoder model parameters using a hardware-aware balanced stochastic pruning strategy, resolving workload imbalance issues and eliminating indexing overhead to reduce parameter storage requirements by up to 32.4%. Using the proposed compact depthwise separable convolutional autoencoder (DS-CAE) model, the compressed neural data from RAMAN is reconstructed offline with superior signal-to-noise and distortion ratios (SNDR) of 22.6 dB and 27.4 dB, along with R2 scores of 0.81 and 0.94, respectively, evaluated on two monkey neural recordings.

arxiv情報

著者 Adithya Krishna,Sohan Debnath,André van Schaik,Mahesh Mehendale,Chetan Singh Thakur
発行日 2025-04-09 16:09:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AR, cs.HC, cs.LG パーマリンク