要約
この博士論文は、脳内の単一ニューロンを時間的に正確で非常に複雑な時空間パターン認識装置と見なすべきであるという中心的な考え方に焦点を当てています。
これは、今日のほとんどの神経科学者による、生物学的ニューロンが単純で主に空間パターン認識装置であるという一般的な見方とは反対です。
この論文では、これが重要な違いであることを実証しようとします。主な理由は、単一ニューロンの上記の計算特性が、ニューロンが構成するさまざまな脳回路、およびニューロンによって情報がどのようにエンコードされるかに関して広範囲にわたる影響を与えるからです。
脳内の神経活動。
つまり、単一ニューロン レベルでのこれらの特定の「低レベル」の詳細は、システム全体に実質的な影響を及ぼします。
はじめに、有用な計算を実行できる神経回路を構成する主なコンポーネントに焦点を当て、システムの観点からこれらのコンポーネントの相互依存性を説明します。
第 1 章では、ニューロンの形態学的構造と生物物理学的特性の結果である皮質ニューロンの時空間入出力関係の非常に複雑な関係について説明します。
第 2 章では、非常に単純な生物学的に妥当な学習規則を使用して、単一のニューロンが特定の時空間入力パターンに応答して時間的に正確な出力パターンを生成できることを実証します。
第 3 章では、現実的な皮質ニューロンの微分可能なディープ ネットワーク アナログをツールとして使用し、入力に対するニューロンの出力の勾配を近似し、この機能を使用してニューロンに非線形 XOR 演算を実行するように学習させます。
。
第 4 章では、第 3 章を拡張して、小さな微小回路または脳領域全体を表す多くの現実的な生物学的スパイキング ニューロンで構成されるニューロン ネットワークへのアイデアの拡張について説明します。
要約(オリジナル)
This PhD thesis is focused on the central idea that single neurons in the brain should be regarded as temporally precise and highly complex spatio-temporal pattern recognizers. This is opposed to the prevalent view of biological neurons as simple and mainly spatial pattern recognizers by most neuroscientists today. In this thesis, I will attempt to demonstrate that this is an important distinction, predominantly because the above-mentioned computational properties of single neurons have far-reaching implications with respect to the various brain circuits that neurons compose, and on how information is encoded by neuronal activity in the brain. Namely, that these particular ‘low-level’ details at the single neuron level have substantial system-wide ramifications. In the introduction we will highlight the main components that comprise a neural microcircuit that can perform useful computations and illustrate the inter-dependence of these components from a system perspective. In chapter 1 we discuss the great complexity of the spatio-temporal input-output relationship of cortical neurons that are the result of morphological structure and biophysical properties of the neuron. In chapter 2 we demonstrate that single neurons can generate temporally precise output patterns in response to specific spatio-temporal input patterns with a very simple biologically plausible learning rule. In chapter 3, we use the differentiable deep network analog of a realistic cortical neuron as a tool to approximate the gradient of the output of the neuron with respect to its input and use this capability in an attempt to teach the neuron to perform nonlinear XOR operation. In chapter 4 we expand chapter 3 to describe extension of our ideas to neuronal networks composed of many realistic biological spiking neurons that represent either small microcircuits or entire brain regions.
arxiv情報
著者 | David Beniaguev |
発行日 | 2023-09-26 17:32:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google