要約
確率的勾配降下(SGD)は、大規模な言語モデルから自律車両まで、ほぼすべての最先端の機械学習モデルを支える非常に効果的な学習アルゴリズムとして浮上しています。
その実際的な成功にもかかわらず、SGDは生物学的学習メカニズムと根本的に異なるように見えます。
生物学的脳は非ローカルであるため勾配降下を実装できないと広く信じられており、私たちはそれの実験的証拠をほとんど(もしあれば)発見しています。
対照的に、脳は、勾配降下と互換性がないと見なされている地元のヘビアン学習原則を介して学習すると広く考えられています。
この論文では、体重減衰でSGDを使用して訓練されたニューラルネットワークの学習信号と、収束近くのヘビアン学習で訓練されたものとの間の理論的かつ経験的なつながりを確立します。
正規化を伴うSGDは、ヘブのルールに従って学習し、抗ヘビアンルールに従って注入されたノイズを備えたSGDが学習できるように見えることを示します。
また、ヘビアンの学習特性が、実質的にすべての学習ルールからの重量減衰(ランダムなルールからのネットワークで出現できる」という経験的証拠も提供します。
これらの結果は、人工学習と生物学的学習の間の長年のギャップを埋める可能性があり、ヘビアンの特性がより深い最適化の原則のエピフェノンとして明らかになり、より複雑なヘテロシナプスメカニズムに対する証拠として神経データにおけるそれらの存在を解釈することに注意することができます。
要約(オリジナル)
Stochastic Gradient Descent (SGD) has emerged as a remarkably effective learning algorithm, underpinning nearly all state-of-the-art machine learning models, from large language models to autonomous vehicles. Despite its practical success, SGD appears fundamentally distinct from biological learning mechanisms. It is widely believed that the biological brain can not implement gradient descent because it is nonlocal, and we have found little (if any) experimental evidence for it. In contrast, the brain is widely thought to learn via local Hebbian learning principles, which have been seen as incompatible with gradient descent. In this paper, we establish a theoretical and empirical connection between the learning signals of neural networks trained using SGD with weight decay and those trained with Hebbian learning near convergence. We show that SGD with regularization can appear to learn according to a Hebbian rule, and SGD with injected noise according to an anti-Hebbian rule. We also provide empirical evidence that Hebbian learning properties can emerge in a network with weight decay from virtually any learning rule–even random ones. These results may bridge a long-standing gap between artificial and biological learning, revealing Hebbian properties as an epiphenomenon of deeper optimization principles and cautioning against interpreting their presence in neural data as evidence against more complex hetero-synaptic mechanisms.
arxiv情報
著者 | David Koplow,Tomaso Poggio,Liu Ziyin |
発行日 | 2025-05-23 16:16:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google