要約
忘れずに複数のタスクを順次学習する能力は、生物の脳の重要なスキルですが、深層学習の分野では大きな課題となっています。
壊滅的な忘却を避けるために、さまざまな継続的学習 (CL) アプローチが考案されています。
ただし、これらには通常、個別のタスク境界が必要です。
この要件は生物学的に信じられないように思われ、タスクが常に明確に定義されていない現実の世界での CL メソッドの適用を制限することがよくあります。
ここでは、壊滅的な忘却を防ぐために、まばらで重複しないニューロン表現が提案されている神経科学からインスピレーションを得ています。
脳と同様に、これらのスパース表現は、フィード フォワード (刺激固有) とトップダウン (コンテキスト固有) の情報に基づいて選択する必要があると主張します。
このような選択的スパース性を実装するために、Deep Feedback Control (DFC) として知られる生物学的に妥当な形式の階層的クレジット割り当てを使用し、それを勝者総取りスパース性メカニズムと組み合わせます。
スパース性に加えて、各レイヤー内に横方向の反復接続を導入して、以前に学習した表現をさらに保護します。
分割 MNIST コンピューター ビジョン ベンチマークで DFC の新しいスパース リカレント バージョンを評価し、スパース性と層内リカレント接続の組み合わせのみが、標準の逆伝播に関して CL パフォーマンスを向上させることを示します。
私たちの方法は、タスク境界に関する情報を必要とせずに、Elastic Weight Consolidation や Synaptic Intelligence などのよく知られている CL メソッドと同様のパフォーマンスを実現します。
全体として、脳からの計算原理を採用して、CL の新しいタスクフリー学習アルゴリズムを導き出すというアイデアを紹介します。
要約(オリジナル)
The ability to sequentially learn multiple tasks without forgetting is a key skill of biological brains, whereas it represents a major challenge to the field of deep learning. To avoid catastrophic forgetting, various continual learning (CL) approaches have been devised. However, these usually require discrete task boundaries. This requirement seems biologically implausible and often limits the application of CL methods in the real world where tasks are not always well defined. Here, we take inspiration from neuroscience, where sparse, non-overlapping neuronal representations have been suggested to prevent catastrophic forgetting. As in the brain, we argue that these sparse representations should be chosen on the basis of feed forward (stimulus-specific) as well as top-down (context-specific) information. To implement such selective sparsity, we use a bio-plausible form of hierarchical credit assignment known as Deep Feedback Control (DFC) and combine it with a winner-take-all sparsity mechanism. In addition to sparsity, we introduce lateral recurrent connections within each layer to further protect previously learned representations. We evaluate the new sparse-recurrent version of DFC on the split-MNIST computer vision benchmark and show that only the combination of sparsity and intra-layer recurrent connections improves CL performance with respect to standard backpropagation. Our method achieves similar performance to well-known CL methods, such as Elastic Weight Consolidation and Synaptic Intelligence, without requiring information about task boundaries. Overall, we showcase the idea of adopting computational principles from the brain to derive new, task-free learning algorithms for CL.
arxiv情報
著者 | Francesco Lässig,Pau Vilimelis Aceituno,Martino Sorbaro,Benjamin F. Grewe |
発行日 | 2022-12-08 15:14:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google