In search of dispersed memories: Generative diffusion models are associative memory networks

要約

長期記憶の背後にあるメカニズムを解明することは、神経科学と人工知能における最も興味深い未解決の問題の 1 つです。
人工連想記憶ネットワークは、生物学的記憶の重要な側面を形式化するために使用されてきました。
生成拡散モデルは、多くのタスクで優れたパフォーマンスを示している生成機械学習手法の一種です。
連想記憶システムと同様に、これらのネットワークは、一連の目標状態に収束する動的システムを定義します。
この研究では、生成拡散モデルがエネルギーベースのモデルとして解釈できること、および離散パターンでトレーニングされた場合、そのエネルギー関数が現代のホップフィールド ネットワークのエネルギー関数と (漸近的に) 同一であることを示します。
この等価性により、拡散モデルの教師ありトレーニングを、ディープ ニューラル ネットワークの重み構造で現代のホップフィールド ネットワークの連合ダイナミクスをエンコードするシナプス学習プロセスとして解釈することができます。
このつながりを活用して、創造的な生成と記憶の想起が統一された連続体の一部として見なされる、長期記憶の形成を理解するための一般化された枠組みを定式化します。

要約(オリジナル)

Uncovering the mechanisms behind long-term memory is one of the most fascinating open problems in neuroscience and artificial intelligence. Artificial associative memory networks have been used to formalize important aspects of biological memory. Generative diffusion models are a type of generative machine learning techniques that have shown great performance in many tasks. Like associative memory systems, these networks define a dynamical system that converges to a set of target states. In this work we show that generative diffusion models can be interpreted as energy-based models and that, when trained on discrete patterns, their energy function is (asymptotically) identical to that of modern Hopfield networks. This equivalence allows us to interpret the supervised training of diffusion models as a synaptic learning process that encodes the associative dynamics of a modern Hopfield network in the weight structure of a deep neural network. Leveraging this connection, we formulate a generalized framework for understanding the formation of long-term memory, where creative generation and memory recall can be seen as parts of a unified continuum.

arxiv情報

著者 Luca Ambrogioni
発行日 2023-11-17 17:05:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク