On Computational Modeling of Sleep-Wake Cycle

要約

なぜ哺乳類は寝る必要があるのでしょうか?
神経科学では、睡眠と覚醒を脳のデフォルトモードおよび摂動モードとして扱います。
脳は環境入力なしに神経活動を自己組織化すると仮説が立てられています。
この論文では、学習と記憶のための睡眠覚醒サイクル (SWC) の新しい計算モデルを紹介します。
スリープ モード中、視床皮質システムによる記憶の統合は、一般化のためにコンテキスト依存表現 (CDR) をコンテキスト独立表現 (CIR) にマッピングする解絡演算子によって抽象化されます。
このようなもつれ解除演算子は、CDR からのコンテキスト変数を統合する積分変換によって数学的に形式化できます。
覚醒モード中、海馬新皮質系による記憶形成は、物理的な動きによってコンテキストが導入されるCIRからCDRへの絡み合い演算子によって抽象化されます。
誘導バイアスとして設計された場合、エンタングルド CDR は、直接適合によって感覚記憶の教師なし学習の問題を線形化します。
もつれを解く演算子ともつれを解く演算子を連結すると、感覚運動学習の構成要素としてもつれを解く – もつれを解くサイクル (DEC) が形成されます。
また、内部モデル学習および自然言語の生態学的起源に関する知覚制御理論のための知覚-行動サイクル (PAC) と DEC および SWC の関係についても説明します。

要約(オリジナル)

Why do mammals need to sleep? Neuroscience treats sleep and wake as default and perturbation modes of the brain. It is hypothesized that the brain self-organizes neural activities without environmental inputs. This paper presents a new computational model of the sleep-wake cycle (SWC) for learning and memory. During the sleep mode, the memory consolidation by the thalamocortical system is abstracted by a disentangling operator that maps context-dependent representations (CDR) to context-independent representations (CIR) for generalization. Such a disentangling operator can be mathematically formalized by an integral transform that integrates the context variable from CDR. During the wake mode, the memory formation by the hippocampal-neocortical system is abstracted by an entangling operator from CIR to CDR where the context is introduced by physical motion. When designed as inductive bias, entangled CDR linearizes the problem of unsupervised learning for sensory memory by direct-fit. The concatenation of disentangling and entangling operators forms a disentangling-entangling cycle (DEC) as the building block for sensorimotor learning. We also discuss the relationship of DEC and SWC to the perception-action cycle (PAC) for internal model learning and perceptual control theory for the ecological origin of natural languages.

arxiv情報

著者 Xin Li
発行日 2024-05-17 17:18:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク