要約
タイトル:自己構築ニューラルネットワーク
要約:
– 脳は、成長と相互作用を通じてシナプスを作成することで学習するシナプトジェネシスというプロセスを通じて発達する。しかし、その後、脳はそれらのシナプスを剪定する。
– 以前の研究は、学習と剪定を独立して研究してきたが、本研究では、Hebbian学習と剪定の組み合わせにより、シナプトジェネシスプロセスをシミュレートする生物学的に妥当なモデルを提案している。
– このようにして、エージェントはタスクを解決する方法を学ぶ一方で、経験を特定のネットワーク構造に変換する。つまり、ネットワーク構造はタスクの実行中に自己構築される。
– 提案されたSBNNと従来のニューラルネットワーク(NN)をOpenAIの3つの古典的な制御タスクで比較した結果、SBNNの方が一般的に良い結果を示した。さらに、剪定率を増やすとパフォーマンスの劣化がNNよりも小さいことが観察された。
– 最後に、学習フェーズ中に見られないタスク上でモデルを検証し、結果、SBNNは従来のNNよりも新しいタスクに適応することができることが示された。特に、重みの80%以上が剪定された場合に有効であることがわかった。
要約(オリジナル)
During the first part of life, the brain develops while it learns through a process called synaptogenesis. The neurons, growing and interacting with each other, create synapses. However, eventually the brain prunes those synapses. While previous work focused on learning and pruning independently, in this work we propose a biologically plausible model that, thanks to a combination of Hebbian learning and pruning, aims to simulate the synaptogenesis process. In this way, while learning how to solve the task, the agent translates its experience into a particular network structure. Namely, the network structure builds itself during the execution of the task. We call this approach Self-building Neural Network (SBNN). We compare our proposed SBNN with traditional neural networks (NNs) over three classical control tasks from OpenAI. The results show that our model performs generally better than traditional NNs. Moreover, we observe that the performance decay while increasing the pruning rate is smaller in our model than with NNs. Finally, we perform a validation test, testing the models over tasks unseen during the learning phase. In this case, the results show that SBNNs can adapt to new tasks better than the traditional NNs, especially when over $80\%$ of the weights are pruned.
arxiv情報
| 著者 | Andrea Ferigo,Giovanni Iacca |
| 発行日 | 2023-04-03 15:42:28+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI