Computation with Sequences in the Brain

要約

機械学習は多くのアプリケーションで人間レベルのパフォーマンスを超えていますが、脳の学習能力の汎用性、堅牢性、および迅速さは依然として比類のないものです。
神経活動から認知がどのように生じるかは、神経科学における中心的な未解決の問題であり、知能そのものの研究と切り離すことはできません。
神経活動の単純な正式モデルが Papadimitriou [2020] で提案され、その後、数学的証明とシミュレーションの両方を通じて、ニューロンの集合体の作成と操作を介して特定の単純な認知操作を実装できることが示されました。
しかし、多くの知的行動は、刺激の時間的シーケンス (計画、言語、ナビゲーションなど) を認識、保存、操作する能力に依存しています。
ここで我々は、同じモデルにおいて、シナプスの重みと可塑性を通じて時間を自然に優先順位として捉えることができ、その結果、アセンブリのシーケンスに関するさまざまな計算を実行できることを示します。
特に、一連の刺激を繰り返し提示すると、対応する神経アセンブリを介してそのシーケンスが記憶されます。シーケンス内の任意の刺激が将来提示されると、対応するアセンブリとそれに続くアセンブリが次々と活性化され、
シーケンスの終わり。
最後に、適切なシーケンス パターンの提示を通じて、任意の有限状態マシンを同様の方法で学習できることを示します。
このメカニズムを拡張することで、モデルが汎用的な計算が可能であることを示すことができます。
私たちは、このモデルでの学習の限界を重要な方法で調査するための多くの実験で分析をサポートします。
総合すると、これらの結果は、配列が重要な役割を果たしている、脳の計算と学習という驚くべき能力の基礎に関する具体的な仮説を提供します。

要約(オリジナル)

Even as machine learning exceeds human-level performance on many applications, the generality, robustness, and rapidity of the brain’s learning capabilities remain unmatched. How cognition arises from neural activity is a central open question in neuroscience, inextricable from the study of intelligence itself. A simple formal model of neural activity was proposed in Papadimitriou [2020] and has been subsequently shown, through both mathematical proofs and simulations, to be capable of implementing certain simple cognitive operations via the creation and manipulation of assemblies of neurons. However, many intelligent behaviors rely on the ability to recognize, store, and manipulate temporal sequences of stimuli (planning, language, navigation, to list a few). Here we show that, in the same model, time can be captured naturally as precedence through synaptic weights and plasticity, and, as a result, a range of computations on sequences of assemblies can be carried out. In particular, repeated presentation of a sequence of stimuli leads to the memorization of the sequence through corresponding neural assemblies: upon future presentation of any stimulus in the sequence, the corresponding assembly and its subsequent ones will be activated, one after the other, until the end of the sequence. Finally, we show that any finite state machine can be learned in a similar way, through the presentation of appropriate patterns of sequences. Through an extension of this mechanism, the model can be shown to be capable of universal computation. We support our analysis with a number of experiments to probe the limits of learning in this model in key ways. Taken together, these results provide a concrete hypothesis for the basis of the brain’s remarkable abilities to compute and learn, with sequences playing a vital role.

arxiv情報

著者 Max Dabagia,Christos H. Papadimitriou,Santosh S. Vempala
発行日 2023-06-06 15:58:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.NE, q-bio.NC パーマリンク