Learning Sequence Attractors in Recurrent Networks with Hidden Neurons

要約

脳は時系列情報を処理することを目標としている。しかし、脳がどのようにしてシーケンス記憶を記憶し、取り出すかを学習しているのかについては、まだ不明な点が多い。ここでは、二値ニューロンからなるリカレント・ネットワークが、どのように配列アトラクターを学習し、あらかじめ定義されたパターン配列を記憶し、それを頑健に取り出すかを研究する。任意のパターン系列を記憶するためには、系列記憶の表示における隠れニューロンの役割は間接的であるにもかかわらず、ネットワークに隠れニューロンを含める必要があることを示す。我々は、隠れニューロンを含むネットワークにおいてシーケンスアトラクターを学習するための局所学習アルゴリズムを開発する。このアルゴリズムは収束し、シーケンスアトラクターを導くことが証明される。我々は、このネットワークモデルが、合成データセットと実世界データセットにおいて、頑健にシーケンスを記憶・検索できることを実証する。この研究が、脳におけるシーケンス記憶と時間情報処理を理解する上で新たな知見を与えることを期待している。

要約(オリジナル)

The brain is targeted for processing temporal sequence information. It remains largely unclear how the brain learns to store and retrieve sequence memories. Here, we study how recurrent networks of binary neurons learn sequence attractors to store predefined pattern sequences and retrieve them robustly. We show that to store arbitrary pattern sequences, it is necessary for the network to include hidden neurons even though their role in displaying sequence memories is indirect. We develop a local learning algorithm to learn sequence attractors in the networks with hidden neurons. The algorithm is proven to converge and lead to sequence attractors. We demonstrate that the network model can store and retrieve sequences robustly on synthetic and real-world datasets. We hope that this study provides new insights in understanding sequence memory and temporal information processing in the brain.

arxiv情報

著者 Yao Lu,Si Wu
発行日 2024-04-03 13:29:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, cs.NE パーマリンク