Continual learning under domain transfer with sparse synaptic bursting

要約

既存のマシンは、予測と制御を容易にするために作成された、機能が特定されたツールです。
未来のマシンは、その可変性、回復力、自律性において生物学的システムに近いかもしれません。
しかし、まず彼らは恣意的に頻繁にさらされることなく、新しい情報を学習して保持することができなければなりません.
このようなシステムを設計するための過去の取り組みでは、特定のタスクや入力に一意に敏感な重みのばらばらなセットを使用して、人工ニューラル ネットワークを構築または調整しようとしました。
これは、既存の知識を破壊することなく、以前は見られなかったデータの長いシーケンスを継続的に学習することをまだ可能にしていません。これは壊滅的な忘却として知られている問題です。
この論文では、時間の経過とともにほとんど忘れることなく、以前に見られなかったデータセット (ImageNet、CIFAR-100) を順次学習できるシステムを紹介します。
これは、2 番目のフィードフォワード ニューラル ネットワークによって生成されたトップダウン制御を使用して、入力に基づいて畳み込みニューラル ネットワークの重みのアクティビティを制御することによって行われます。
私たちの方法は、タスク固有のモジュールを維持するのではなく、タスク全体でリサイクルされる重みでまばらなアクティビティバーストを使用して、ドメイン転送の下で継続的に学習することがわかりました。
まばらなシナプス破裂は、活動と抑制のバランスをとることがわかっているため、既存の知識を損なうことなく新しい機能を学習できるため、カオスの端にあるシステムの秩序と無秩序のバランスを反映しています。
この動作は、予測誤差の最小化による均一な抑制の初期状態から、調整されたシナプスが選択的に抑制解除または成長される事前トレーニング (または「メタ学習」) フェーズ中に現れます。

要約(オリジナル)

Existing machines are functionally specific tools that were made for easy prediction and control. Tomorrow’s machines may be closer to biological systems in their mutability, resilience, and autonomy. But first they must be capable of learning and retaining new information without being exposed to it arbitrarily often. Past efforts to engineer such systems have sought to build or regulate artificial neural networks using disjoint sets of weights that are uniquely sensitive to specific tasks or inputs. This has not yet enabled continual learning over long sequences of previously unseen data without corrupting existing knowledge: a problem known as catastrophic forgetting. In this paper, we introduce a system that can learn sequentially over previously unseen datasets (ImageNet, CIFAR-100) with little forgetting over time. This is done by controlling the activity of weights in a convolutional neural network on the basis of inputs using top-down regulation generated by a second feed-forward neural network. We find that our method learns continually under domain transfer with sparse bursts of activity in weights that are recycled across tasks, rather than by maintaining task-specific modules. Sparse synaptic bursting is found to balance activity and suppression such that new functions can be learned without corrupting extant knowledge, thus mirroring the balance of order and disorder in systems at the edge of chaos. This behavior emerges during a prior pre-training (or ‘meta-learning’) phase in which regulated synapses are selectively disinhibited, or grown, from an initial state of uniform suppression through prediction error minimization.

arxiv情報

著者 Shawn L. Beaulieu,Jeff Clune,Nick Cheney
発行日 2022-09-20 15:58:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク