Cognitively Inspired Learning of Incremental Drifting Concepts

要約

タイトル:コグニティブにインスパイアされたインクリメンタルなドリフトコンセプトの学習

要約:
– 人間は過去の経験に干渉されることなく学習した知識を新しい領域に拡張し、新しい概念を学ぶことができます。
– しかし、機械学習モデルは、入力データの分布が時間とともに変化する持続的な学習環境で不十分な性能を発揮します。
– 本研究では、神経系の学習メカニズムに着想を得て、深層ニューラルネットワークが持続的な学習環境で新しい概念を学習し、学習済みの知識を新しい領域に拡張できるようにする計算モデルを開発しました。
– 多重分布の観点で抽象的な概念を埋め込むための並列分散処理理論を利用し、埋め込み空間をモデル化しました。この埋め込み空間は、隠れたネットワーク層内の内部データ表現によってモデル化されます。
– また、補完的学習システム理論を利用して、擬似リハーサルを実装することで、記憶メカニズムをモデルに備え、カタストロフィックな忘却を克服しました。
– 本モデルは、経験リプレイ用の擬似データ点を生成し、クロスタスク干渉を引き起こすことなく新しい経験を過去に学んだ経験に蓄積することができます。

要約(オリジナル)

Humans continually expand their learned knowledge to new domains and learn new concepts without any interference with past learned experiences. In contrast, machine learning models perform poorly in a continual learning setting, where input data distribution changes over time. Inspired by the nervous system learning mechanisms, we develop a computational model that enables a deep neural network to learn new concepts and expand its learned knowledge to new domains incrementally in a continual learning setting. We rely on the Parallel Distributed Processing theory to encode abstract concepts in an embedding space in terms of a multimodal distribution. This embedding space is modeled by internal data representations in a hidden network layer. We also leverage the Complementary Learning Systems theory to equip the model with a memory mechanism to overcome catastrophic forgetting through implementing pseudo-rehearsal. Our model can generate pseudo-data points for experience replay and accumulate new experiences to past learned experiences without causing cross-task interference.

arxiv情報

著者 Mohammad Rostami,Aram Galstyan
発行日 2023-04-21 10:35:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.LG パーマリンク