要約
アダプターは、継続学習における壊滅的な忘却の問題に対する有望な解決策を提供します。
ただし、新しいタスクごとに独立したアダプター モジュールをトレーニングすると、タスク間の知識伝達の機会が失われます。
私たちは、以前に学習したタスクのアダプターから知識を抽出することによって、受信タスクのアダプターを初期化する継続的な学習アルゴリズムである Improvis to Initialize (I2I) を提案します。
一連の視覚的質問応答タスクの実験を行うことにより、マルチモーダル継続学習ベンチマークである CLiMB 上の I2I を評価します。
I2I でトレーニングされたアダプターは、独立してトレーニングされたアダプターよりも一貫して高いタスク精度を達成しており、このアルゴリズムがタスク アダプター間の知識の伝達を容易にすることを示しています。
また、I2I は、関連するパラメトリック コストを発生させることなく、最先端の AdaptorFusion よりも優れたクロスタスクの知識伝達を実現します。
要約(オリジナル)
Adapters present a promising solution to the catastrophic forgetting problem in continual learning. However, training independent Adapter modules for every new task misses an opportunity for cross-task knowledge transfer. We propose Improvise to Initialize (I2I), a continual learning algorithm that initializes Adapters for incoming tasks by distilling knowledge from previously-learned tasks’ Adapters. We evaluate I2I on CLiMB, a multimodal continual learning benchmark, by conducting experiments on sequences of visual question answering tasks. Adapters trained with I2I consistently achieve better task accuracy than independently-trained Adapters, demonstrating that our algorithm facilitates knowledge transfer between task Adapters. I2I also results in better cross-task knowledge transfer than the state-of-the-art AdapterFusion without incurring the associated parametric cost.
arxiv情報
著者 | Tejas Srinivasan,Furong Jia,Mohammad Rostami,Jesse Thomason |
発行日 | 2023-07-10 20:41:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google