Distributed Representations Enable Robust Multi-Timescale Symbolic Computation in Neuromorphic Hardware

要約

マルチタイムスケールの計算を堅牢に実行するリカレント スパイキング ニューラル ネットワーク (RSNN) をプログラミングすることは、依然として困難な課題です。
これに対処するために、高次元分散表現の特性を利用して、堅牢なマルチタイムスケールのダイナミクスをアトラクターベースの RSNN に埋め込むシングルショット重み学習スキームについて説明します。
対称自己連想重み行列と非対称遷移項を重ね合わせることで、有限状態マシンを RSNN ダイナミクスに埋め込みます。これらの項はそれぞれ、入力のベクトル結合と状態間のヘテロ連想外積によって形成されます。
私たちのアプローチは、非常に非理想的な重みを使用したシミュレーションを通じて検証されています。
実験的な閉ループのメムリスティブ ハードウェア セットアップ。
Loihi 2 では、大規模なステート マシンまでシームレスに拡張できます。
この研究では、パラメーターの微調整やプラットフォーム固有の大幅な最適化を必要とせずに、リカレント ダイナミクスによる堅牢なシンボリック計算をニューロモーフィック ハードウェアに組み込むスケーラブルなアプローチを導入しています。
さらに、分散シンボリック表現が、ニューロモーフィック ハードウェアの認知アルゴリズムにとって、非常に有能な表現不変言語として機能することを示しています。

要約(オリジナル)

Programming recurrent spiking neural networks (RSNNs) to robustly perform multi-timescale computation remains a difficult challenge. To address this, we describe a single-shot weight learning scheme to embed robust multi-timescale dynamics into attractor-based RSNNs, by exploiting the properties of high-dimensional distributed representations. We embed finite state machines into the RSNN dynamics by superimposing a symmetric autoassociative weight matrix and asymmetric transition terms, which are each formed by the vector binding of an input and heteroassociative outer-products between states. Our approach is validated through simulations with highly nonideal weights; an experimental closed-loop memristive hardware setup; and on Loihi 2, where it scales seamlessly to large state machines. This work introduces a scalable approach to embed robust symbolic computation through recurrent dynamics into neuromorphic hardware, without requiring parameter fine-tuning or significant platform-specific optimisation. Moreover, it demonstrates that distributed symbolic representations serve as a highly capable representation-invariant language for cognitive algorithms in neuromorphic hardware.

arxiv情報

著者 Madison Cotteret,Hugh Greatorex,Alpha Renner,Junren Chen,Emre Neftci,Huaqiang Wu,Giacomo Indiveri,Martin Ziegler,Elisabetta Chicca
発行日 2025-01-13 14:58:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.NE パーマリンク