要約
「生物学的に妥当な」学習アルゴリズムの探求は、勾配をアクティビティの差として表すというアイデアに収束しました。
ただし、ほとんどのアプローチは高度な同期 (学習中の個別のフェーズ) を必要とし、かなりの計算オーバーヘッドを導入するため、その生物学的な妥当性やニューロモーフィック コンピューティングの潜在的な有用性について疑問が生じます。
さらに、これらは通常、出力ユニットに微小な摂動 (ナッジ) を適用することに依存していますが、これはノイズの多い環境では現実的ではありません。
最近、人工ニューロンを 2 つの反対方向にナッジされたコンパートメントを持つダイアドとしてモデル化することにより、「デュアル プロパゲーション」と呼ばれる完全にローカルな学習アルゴリズムが、個別の学習フェーズや微小なナッジを必要とせずに、バックプロパゲーションとのパフォーマンス ギャップを埋めることが可能であることが示されました。
。
ただし、このアルゴリズムには、数値的安定性が対称的なナッジに依存しているという欠点があり、生物学的およびアナログ的な実装では制限される可能性があります。
この研究では、まず二重伝播法の基礎となる目的の強固な基盤を提供します。これにより、敵対的な堅牢性との驚くべき関係も明らかになります。
次に、双対伝播が、非対称ナッジに関係なく安定している特定の随伴状態法にどのように関連しているかを示します。
要約(オリジナル)
The search for “biologically plausible” learning algorithms has converged on the idea of representing gradients as activity differences. However, most approaches require a high degree of synchronization (distinct phases during learning) and introduce substantial computational overhead, which raises doubts regarding their biological plausibility as well as their potential utility for neuromorphic computing. Furthermore, they commonly rely on applying infinitesimal perturbations (nudges) to output units, which is impractical in noisy environments. Recently it has been shown that by modelling artificial neurons as dyads with two oppositely nudged compartments, it is possible for a fully local learning algorithm named “dual propagation” to bridge the performance gap to backpropagation, without requiring separate learning phases or infinitesimal nudging. However, the algorithm has the drawback that its numerical stability relies on symmetric nudging, which may be restrictive in biological and analog implementations. In this work we first provide a solid foundation for the objective underlying the dual propagation method, which also reveals a surprising connection with adversarial robustness. Second, we demonstrate how dual propagation is related to a particular adjoint state method, which is stable regardless of asymmetric nudging.
arxiv情報
著者 | Rasmus Kjær Høier,Christopher Zach |
発行日 | 2024-12-02 18:33:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google