A Comprehensive Survey on Continual Learning in Generative Models

要約

生成モデルの急速な進歩により、最新のAIシステムは、特定のドメインで人間レベルのパフォーマンスを達成することさえ、非常に洗練されたコンテンツを理解し、生成することができました。
ただし、これらのモデルは壊滅的な忘却によって根本的に制約されたままです。これは、新しいタスクに適応することで、以前に学習されたタスクのパフォーマンスの大幅な分解につながる永続的な課題です。
この実際的な制限に対処するために、実際のアプリケーションでの生成モデルの適応性とスケーラビリティを高めるために、多くのアプローチが提案されています。
この作業では、大規模な言語モデル、マルチモーダル大手言語モデル、ビジョン言語アクションモデル、拡散モデルなど、主流の生成モデルの継続的な学習方法に関する包括的な調査を紹介します。
人間の脳の記憶メカニズムからインスピレーションを得て、これらのアプローチを体系的に3つのパラダイムに分類します:アーキテクチャベース、正規化ベース、およびリプレイベースの方法、そして根本的な方法論と動機を解明します。
さらに、トレーニング目標、ベンチマーク、コアバックボーンなど、さまざまな生成モデルの継続的な学習セットアップを分析し、フィールドに関するより深い洞察を提供します。
このペーパーのプロジェクトページは、https://github.com/ghy0501/awesome-continual-rearning-in-generative-modelsで入手できます。

要約(オリジナル)

The rapid advancement of generative models has enabled modern AI systems to comprehend and produce highly sophisticated content, even achieving human-level performance in specific domains. However, these models remain fundamentally constrained by catastrophic forgetting – a persistent challenge where adapting to new tasks typically leads to significant degradation in performance on previously learned tasks. To address this practical limitation, numerous approaches have been proposed to enhance the adaptability and scalability of generative models in real-world applications. In this work, we present a comprehensive survey of continual learning methods for mainstream generative models, including large language models, multimodal large language models, vision language action models, and diffusion models. Drawing inspiration from the memory mechanisms of the human brain, we systematically categorize these approaches into three paradigms: architecture-based, regularization-based, and replay-based methods, while elucidating their underlying methodologies and motivations. We further analyze continual learning setups for different generative models, including training objectives, benchmarks, and core backbones, offering deeper insights into the field. The project page of this paper is available at https://github.com/Ghy0501/Awesome-Continual-Learning-in-Generative-Models.

arxiv情報

著者 Haiyang Guo,Fanhu Zeng,Fei Zhu,Jiayi Wang,Xukai Wang,Jingang Zhou,Hongbo Zhao,Wenzhuo Liu,Shijie Ma,Da-Han Wang,Xu-Yao Zhang,Cheng-Lin Liu
発行日 2025-06-18 15:06:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク