On the use of associative memory in Hopfield networks designed to solve propositional satisfiability problems

要約

ホップフィールド ネットワークは、生物学的に妥当なメカニズムを提供するため、さまざまな種類の計算問題を解決するための魅力的な選択肢です。
自己最適化 (SO) モデルは、ネットワーク内にエンコードされた望ましい目標状態に向けてネットワーク自体の動作を最適化するために、生物学的に確立されたヘビアン学習規則を使用し、任意の初期状態へのネットワークの繰り返しリセットと組み合わせて、ホップフィールド ネットワークに追加します。
そのプロセスをよりよく理解するために、最初に、嘘つき問題と地図の色付け問題の 2 つの例を使用して、SO モデルが SAT 形式の具体的な組み合わせ問題を解決できることを示します。
さらに、特定の条件下では、学習されたネットワークが一見最適に見えるソリューションを生成するが、実際には解決することが課せられている問題には不適切であり、重要な情報が永久に失われる可能性があることを示します。
SO モデルの望ましくない副作用のように見えるものは、解決困難な問題を解決するプロセスへの洞察を提供する可能性があります。

要約(オリジナル)

Hopfield networks are an attractive choice for solving many types of computational problems because they provide a biologically plausible mechanism. The Self-Optimization (SO) model adds to the Hopfield network by using a biologically founded Hebbian learning rule, in combination with repeated network resets to arbitrary initial states, for optimizing its own behavior towards some desirable goal state encoded in the network. In order to better understand that process, we demonstrate first that the SO model can solve concrete combinatorial problems in SAT form, using two examples of the Liars problem and the map coloring problem. In addition, we show how under some conditions critical information might get lost forever with the learned network producing seemingly optimal solutions that are in fact inappropriate for the problem it was tasked to solve. What appears to be an undesirable side-effect of the SO model, can provide insight into its process for solving intractable problems.

arxiv情報

著者 Natalya Weber,Werner Koch,Ozan Erdem,Tom Froese
発行日 2023-07-31 16:25:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, nlin.AO, q-bio.NC パーマリンク