要約
人間の学習行動からインスピレーションを得たこの研究では、継続的に出現するクラス データ間の関係を利用することで、プロンプトベースの継続学習モデルにおける壊滅的な忘却を軽減する新しいアプローチを提案しています。
情報を整理して接続するという人間の習慣を適用すると、深層学習モデルをトレーニングする際の効率的な戦略として機能することがわかりました。
具体的には、拡大する一連のラベルに基づいて階層ツリー構造を構築することで、データに対する新たな洞察が得られ、類似したクラスのグループを特定すると混乱が生じやすくなります。
さらに、最適なトランスポートベースのアプローチを通じて元の事前トレーニング済みモデルの動作を調査することで、クラス間の隠れたつながりをさらに深く掘り下げます。
これらの洞察から、モデルが困難な知識領域にさらに集中することを促進し、それによって全体的なパフォーマンスを向上させる新しい正則化損失関数を提案します。
実験的に、私たちの方法は、さまざまなベンチマークで最も堅牢な最先端のモデルよりも大幅に優れていることが実証されました。
要約(オリジナル)
Drawing inspiration from human learning behaviors, this work proposes a novel approach to mitigate catastrophic forgetting in Prompt-based Continual Learning models by exploiting the relationships between continuously emerging class data. We find that applying human habits of organizing and connecting information can serve as an efficient strategy when training deep learning models. Specifically, by building a hierarchical tree structure based on the expanding set of labels, we gain fresh insights into the data, identifying groups of similar classes could easily cause confusion. Additionally, we delve deeper into the hidden connections between classes by exploring the original pretrained model’s behavior through an optimal transport-based approach. From these insights, we propose a novel regularization loss function that encourages models to focus more on challenging knowledge areas, thereby enhancing overall performance. Experimentally, our method demonstrated significant superiority over the most robust state-of-the-art models on various benchmarks.
arxiv情報
著者 | Quyen Tran,Hoang Phan,Minh Le,Tuan Truong,Dinh Phung,Linh Ngo,Thien Nguyen,Nhat Ho,Trung Le |
発行日 | 2024-11-20 18:59:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google