Hierarchical Working Memory and a New Magic Number

要約

作業記憶の範囲は非常に限られており、通常は約 4 項目であり、はるかに大量の感覚情報の流れを同時に処理する私たちの日常経験とは著しく対照的です。
この差異は、作業記憶が情報をチャンクなどのコンパクトな表現に整理できるものの、その基礎となる神経メカニズムはほとんど不明のままであることを示唆しています。
ここでは、作業記憶のシナプス理論の枠組み内でチャンキングのためのリカレント ニューラル ネットワーク モデルを提案します。
私たちは、刺激のグループを選択的に抑制することで、ネットワークが刺激をチャンクで維持および取得できるため、基本容量を超えることを示しました。
さらに、私たちのモデルは階層チャンキングを通じて作業メモリ内に階層表現を動的に構築できることを示します。
この提案されたメカニズムの結果、チャンク化が呼び出されない場合の基本的な作業メモリ容量のみに依存して、作業メモリに保存し、その後作業メモリから取得できる項目の数に新たな制限が設けられます。
私たちのモデルによる予測は、てんかん患者の単一単位反応の分析と言語資料を用いた記憶実験によって確認されました。
私たちの研究は、認知に重要な脳内の情報のその場での組織化を理解するための、新しい概念的かつ分析的なフレームワークを提供します。

要約(オリジナル)

The extremely limited working memory span, typically around four items, contrasts sharply with our everyday experience of processing much larger streams of sensory information concurrently. This disparity suggests that working memory can organize information into compact representations such as chunks, yet the underlying neural mechanisms remain largely unknown. Here, we propose a recurrent neural network model for chunking within the framework of the synaptic theory of working memory. We showed that by selectively suppressing groups of stimuli, the network can maintain and retrieve the stimuli in chunks, hence exceeding the basic capacity. Moreover, we show that our model can dynamically construct hierarchical representations within working memory through hierarchical chunking. A consequence of this proposed mechanism is a new limit on the number of items that can be stored and subsequently retrieved from working memory, depending only on the basic working memory capacity when chunking is not invoked. Predictions from our model were confirmed by analyzing single-unit responses in epileptic patients and memory experiments with verbal material. Our work provides a novel conceptual and analytical framework for understanding the on-the-fly organization of information in the brain that is crucial for cognition.

arxiv情報

著者 Weishun Zhong,Mikhail Katkov,Misha Tsodyks
発行日 2024-08-14 16:03:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.dis-nn, cs.CL, q-bio.NC パーマリンク