要約
人間の脳は常に学習し、獲得した知識と経験を記憶に統合することで新しい状況に迅速に適応します。
データが限られている場合、または新しい目に見えないタスクに迅速に適応する必要がある場合、ディープ ニューラル ネットワークのパフォーマンスが低下するため、機械学習モデルでこの機能を開発することは AI 研究の重要な目標と考えられています。
メタ学習モデルは、過去から吸収された情報を利用することで、低データ領域での迅速な学習を促進するために提案されています。
最近、高性能レベルに達したモデルがいくつか導入されましたが、それらは生物学的に妥当なものではありません。
私たちは、報酬ベースの学習システムを備えたスパイキング ニューラル ネットワークを使用して、海馬と前頭前皮質にヒントを得た生物学的にもっともらしいメタ学習モデルを提案しました。
私たちが提案するモデルには、メタ学習モデルが新しいタスクを開始するとすぐに学習した内容を忘れてしまう現象である壊滅的な忘却を防ぐように設計された記憶が含まれています。
また、私たちの新しいモデルは、スパイクベースのニューロモーフィック デバイスに簡単に適用でき、ニューロモーフィック ハードウェアでの高速学習が可能になります。
最後の分析では、少数ショット分類タスクを解決するためのモデルの意味と予測について説明します。
これらのタスクを解決する際に、私たちのモデルは既存の最先端のメタ学習技術と競合できる能力を実証しました。
要約(オリジナル)
The human brain constantly learns and rapidly adapts to new situations by integrating acquired knowledge and experiences into memory. Developing this capability in machine learning models is considered an important goal of AI research since deep neural networks perform poorly when there is limited data or when they need to adapt quickly to new unseen tasks. Meta-learning models are proposed to facilitate quick learning in low-data regimes by employing absorbed information from the past. Although some models have recently been introduced that reached high-performance levels, they are not biologically plausible. We have proposed a bio-plausible meta-learning model inspired by the hippocampus and the prefrontal cortex using spiking neural networks with a reward-based learning system. Our proposed model includes a memory designed to prevent catastrophic forgetting, a phenomenon that occurs when meta-learning models forget what they have learned as soon as the new task begins. Also, our new model can easily be applied to spike-based neuromorphic devices and enables fast learning in neuromorphic hardware. The final analysis will discuss the implications and predictions of the model for solving few-shot classification tasks. In solving these tasks, our model has demonstrated the ability to compete with the existing state-of-the-art meta-learning techniques.
arxiv情報
著者 | Arsham Gholamzadeh Khoee,Alireza Javaheri,Saeed Reza Kheradpisheh,Mohammad Ganjtabesh |
発行日 | 2023-06-07 13:08:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google