Layer-wise Feedback Propagation

要約

この論文では、説明可能性、特にレイヤーワイズ関連性伝播 (LRP) を利用して、それぞれの接続に基づいて個々の接続に報酬を割り当てる、ニューラル ネットワークのような予測子の新しいトレーニング アプローチであるレイヤーワイズ フィードバック伝播 (LFP) を紹介します。
与えられたタスクの解決に貢献します。
これは、推定損失最小値に向かってパラメータを更新する従来の勾配降下法とは異なります。
LFP は、勾配計算を必要とせずに、モデル全体に​​報酬信号を分配します。
次に、正のフィードバックを受ける構造を強化し、負のフィードバックを受ける構造の影響を軽減します。
私たちは、LFP の収束を理論的および経験的に確立し、さまざまなモデルやデータセットで勾配降下法と同等のパフォーマンスを達成するその有効性を実証します。
特に、LFP は、意味のある導関数への依存など、勾配ベースの手法に関連する特定の制限を克服します。
さらに、さまざまな LRP ルールをどのように LFP に拡張できるか、それらのルールがトレーニングにどのような影響を与えるか、また、意味のある導関数を持たないトレーニング モデル (ステップ関数でアクティブ化されたスパイキング ニューラル ネットワーク (SNN) など) などの潜在的なアプリケーションも調査します。
または既存の知識を効率的に利用するための転移学習の場合。

要約(オリジナル)

In this paper, we present Layer-wise Feedback Propagation (LFP), a novel training approach for neural-network-like predictors that utilizes explainability, specifically Layer-wise Relevance Propagation(LRP), to assign rewards to individual connections based on their respective contributions to solving a given task. This differs from traditional gradient descent, which updates parameters towards anestimated loss minimum. LFP distributes a reward signal throughout the model without the need for gradient computations. It then strengthens structures that receive positive feedback while reducingthe influence of structures that receive negative feedback. We establish the convergence of LFP theoretically and empirically, and demonstrate its effectiveness in achieving comparable performance to gradient descent on various models and datasets. Notably, LFP overcomes certain limitations associated with gradient-based methods, such as reliance on meaningful derivatives. We further investigate how the different LRP-rules can be extended to LFP, what their effects are on training, as well as potential applications, such as training models with no meaningful derivatives, e.g., step-function activated Spiking Neural Networks (SNNs), or for transfer learning, to efficiently utilize existing knowledge.

arxiv情報

著者 Leander Weber,Jim Berend,Alexander Binder,Thomas Wiegand,Wojciech Samek,Sebastian Lapuschkin
発行日 2023-08-23 10:48:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T05, cs.AI, cs.LG, cs.NE パーマリンク