Lagrangian-based Equilibrium Propagation: generalisation to arbitrary boundary conditions & equivalence with Hamiltonian Echo Learning

要約

平衡伝播(EP)は、固定点の変動記述を活用する静的入力のエネルギーベースモデル(EBM)をトレーニングするための学習アルゴリズムです。
EPを時間変化する入力に拡張することは困難な問題です。変分の説明は、単なる固定点ではなくシステム全体の軌跡に適用され、境界条件を慎重に検討することが不可欠です。
この作業では、一般化されたラグランジアン平衡伝播(GLEP)を提示し、EPの変分定式化を時変入力に拡張します。
GLEPは、システムの境界条件に応じて異なる学習アルゴリズムを生成することを実証します。その多くは実装では非現実的です。
次に、最近提案された再発性HEL(RHEL)を含むハミルトニアンエコーラーニング(HEL)と以前の既知のハミルトニアンエコーバックプロパゲーション(HEB)アルゴリズムを含む – がGLEPの特別なケースとして導出できることを示します。
特に、HELはGLEPの唯一のインスタンスであり、EPをハードウェア実装のバックプロパゲーションの望ましい代替品にするプロパティを継承していることがわかりました。つまり、「推論と学習と学習の両方で同じシステムを使用する)に動作し、効率的に拡大します(モデルサイズに関係なく2つまたはそれ以上のパスを必要とします)。

要約(オリジナル)

Equilibrium Propagation (EP) is a learning algorithm for training Energy-based Models (EBMs) on static inputs which leverages the variational description of their fixed points. Extending EP to time-varying inputs is a challenging problem, as the variational description must apply to the entire system trajectory rather than just fixed points, and careful consideration of boundary conditions becomes essential. In this work, we present Generalized Lagrangian Equilibrium Propagation (GLEP), which extends the variational formulation of EP to time-varying inputs. We demonstrate that GLEP yields different learning algorithms depending on the boundary conditions of the system, many of which are impractical for implementation. We then show that Hamiltonian Echo Learning (HEL) — which includes the recently proposed Recurrent HEL (RHEL) and the earlier known Hamiltonian Echo Backpropagation (HEB) algorithms — can be derived as a special case of GLEP. Notably, HEL is the only instance of GLEP we found that inherits the properties that make EP a desirable alternative to backpropagation for hardware implementations: it operates in a ‘forward-only’ manner (i.e. using the same system for both inference and learning), it scales efficiently (requiring only two or more passes through the system regardless of model size), and enables local learning.

arxiv情報

著者 Guillaume Pourcel,Debabrota Basu,Maxence Ernoult,Aditya Gilra
発行日 2025-06-06 17:17:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク