要約
初期感覚野のニューロンは、個々の応答の分散を正規化したり、応答間の相関を低減したりすることによって、変化する感覚統計に迅速に適応します。
これらの変換を合わせて、統計的ホワイトニングの適応型とみなすことができます。
適応ホワイトニングの既存の機構モデルは、適応のための生物学的基質としてシナプス可塑性またはゲイン変調のいずれかをもっぱら使用します。
ただし、これらのモデル自体には重大な制限があります。
この研究では、これらのアプローチを標準的なマルチタイムスケールの機構モデルに統合し、シナプス可塑性とゲイン変調に対する相補的な計算役割を使用して応答を適応的に白色化します。
ゲインは現在の統計的コンテキストに適応するために高速なタイムスケールで変更されますが、シナプスはコンテキスト間で不変である入力統計の構造的特性に一致するように低速なタイムスケールで変更されます。
私たちのモデルは、逆ホワイトニング行列をシナプスの重みに対応する基底ベクトルとニューロンのゲインに対応する対角行列に因数分解する新しいマルチタイムスケールのホワイトニング目標から派生しています。
合成データセットと自然データセットでモデルをテストしたところ、シナプスが長いタイムスケールにわたって最適な構成を学習し、ゲイン変調を使用して短いタイムスケールでの適応ホワイトニングを可能にすることがわかりました。
要約(オリジナル)
Neurons in early sensory areas rapidly adapt to changing sensory statistics, both by normalizing the variance of their individual responses and by reducing correlations between their responses. Together, these transformations may be viewed as an adaptive form of statistical whitening. Existing mechanistic models of adaptive whitening exclusively use either synaptic plasticity or gain modulation as the biological substrate for adaptation; however, on their own, each of these models has significant limitations. In this work, we unify these approaches in a normative multi-timescale mechanistic model that adaptively whitens its responses with complementary computational roles for synaptic plasticity and gain modulation. Gains are modified on a fast timescale to adapt to the current statistical context, whereas synapses are modified on a slow timescale to match structural properties of the input statistics that are invariant across contexts. Our model is derived from a novel multi-timescale whitening objective that factorizes the inverse whitening matrix into basis vectors, which correspond to synaptic weights, and a diagonal matrix, which corresponds to neuronal gains. We test our model on synthetic and natural datasets and find that the synapses learn optimal configurations over long timescales that enable adaptive whitening on short timescales using gain modulation.
arxiv情報
著者 | Lyndon R. Duong,Eero P. Simoncelli,Dmitri B. Chklovskii,David Lipshutz |
発行日 | 2023-10-26 15:52:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google