Lifelong Sequence Generation with Dynamic Module Expansion and Adaptation

要約

継続学習の問題である生涯シーケンス生成 (LSG) は、以前の知識の忘れを避けながら、絶えず出現する新しい生成パターンを学習するために、一連の生成タスクでモデルを継続的にトレーニングすることを目的としています。
既存の LSG 手法は主に古い知識を維持することに焦点を当てており、タスク間での知識の伝達にはほとんど注意を払っていません。
対照的に、人間は、同様のタスクから以前に取得した知識を活用することで、新しいタスクをよりよく学習できます。
人間の学習パラダイムにヒントを得て、動的モジュール拡張と適応 (DMEA) を提案します。これにより、モデルはタスクの相関関係に基づいて新しい知識を取得するためのアーキテクチャを動的に決定し、最も類似した以前のタスクを選択して新しいタスクへの適応を促進できます。
さらに、学習プロセスは現在のタスクに偏りやすく、以前に学習した知識をより深刻に忘れてしまう可能性があるため、現在のタスクと再生されたタスクの学習のバランスを取る動的勾配スケーリングを提案します。
広範な実験により、DMEA がさまざまな LSG 設定において既存の方法よりも一貫して優れたパフォーマンスを発揮できることを実証しました。

要約(オリジナル)

Lifelong sequence generation (LSG), a problem in continual learning, aims to continually train a model on a sequence of generation tasks to learn constantly emerging new generation patterns while avoiding the forgetting of previous knowledge. Existing LSG methods mainly focus on maintaining old knowledge while paying little attention to knowledge transfer across tasks. In contrast, humans can better learn new tasks by leveraging previously acquired knowledge from similar tasks. Inspired by the learning paradigm of humans, we propose Dynamic Module Expansion and Adaptation (DMEA), which enables the model to dynamically determine the architecture for acquiring new knowledge based on task correlation and select the most similar previous tasks to facilitate adaptation to new tasks. In addition, as the learning process can easily be biased towards the current task which might cause more severe forgetting of previously learned knowledge, we propose dynamic gradient scaling to balance the learning of the current task and replayed tasks. With extensive experiments, we demonstrate that DMEA can consistently outperform existing methods in different LSG settings.

arxiv情報

著者 Chengwei Qin,Chen Chen,Shafiq Joty
発行日 2023-11-22 06:44:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク