要約
神経活動のリアルタイムデコードは、閉ループ実験から脳コンピューター界面まで、神経科学および神経科学のアプリケーションの中心であり、モデルは厳密な潜在的制約の影響を受けます。
単純な再発性ニューラルネットワークを含む従来の方法は、高速で軽量ですが、目に見えないデータに一般化するのに苦労しています。
対照的に、最近の変圧器ベースのアプローチは、強力な一般化パフォーマンスのために大規模な事前トレーニングを活用していますが、通常ははるかに大きな計算要件を持ち、低リソースやリアルタイムの設定に常に適しているわけではありません。
これらの欠点に対処するために、クロスアテンションモジュールを介した個々のスパイクトークン化を再発状態空間モデル(SSM)バックボーンと組み合わせて(1)(1)(1)(2)(2)(2)(2)(2)(2)(2)(2)(2)(2)(2)(2)(2)(2)(2)、新しいセッション、個人、およびマルチダタセットのPretrineを通じてのタスクの個人化、個人、および(2)効率的な一般化を実現する新しいHybridアーキテクチャであるPassmを提示します。
Monkey Motor Taskの皮質内デコードに関するPossmのデコード性能と推論速度を評価し、臨床応用、つまり人間の被験者における手書きと音声解読にまで及ぶことを示します。
特に、サルの運動皮質記録を事前に除去すると、人間の手書きタスクのデコードパフォーマンスが向上し、異種移動のエキサイティングな可能性を強調することが実証されています。
これらのタスクのすべてで、Possmは、推論コストのほんの一部(GPUで最大9倍高速)で、最先端の変圧器に匹敵するデコード精度を達成することがわかります。
これらの結果は、ハイブリッドSSMが、リアルタイムの閉ループアプリケーションのために神経デコーダーをトレーニングする際の精度、推論速度、および一般化の間のギャップを埋めるための有望なアプローチであることを示唆しています。
要約(オリジナル)
Real-time decoding of neural activity is central to neuroscience and neurotechnology applications, from closed-loop experiments to brain-computer interfaces, where models are subject to strict latency constraints. Traditional methods, including simple recurrent neural networks, are fast and lightweight but often struggle to generalize to unseen data. In contrast, recent Transformer-based approaches leverage large-scale pretraining for strong generalization performance, but typically have much larger computational requirements and are not always suitable for low-resource or real-time settings. To address these shortcomings, we present POSSM, a novel hybrid architecture that combines individual spike tokenization via a cross-attention module with a recurrent state-space model (SSM) backbone to enable (1) fast and causal online prediction on neural activity and (2) efficient generalization to new sessions, individuals, and tasks through multi-dataset pretraining. We evaluate POSSM’s decoding performance and inference speed on intracortical decoding of monkey motor tasks, and show that it extends to clinical applications, namely handwriting and speech decoding in human subjects. Notably, we demonstrate that pretraining on monkey motor-cortical recordings improves decoding performance on the human handwriting task, highlighting the exciting potential for cross-species transfer. In all of these tasks, we find that POSSM achieves decoding accuracy comparable to state-of-the-art Transformers, at a fraction of the inference cost (up to 9x faster on GPU). These results suggest that hybrid SSMs are a promising approach to bridging the gap between accuracy, inference speed, and generalization when training neural decoders for real-time, closed-loop applications.
arxiv情報
著者 | Avery Hee-Woon Ryoo,Nanda H. Krishna,Ximeng Mao,Mehdi Azabou,Eva L. Dyer,Matthew G. Perich,Guillaume Lajoie |
発行日 | 2025-06-05 17:57:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google