要約
Catastrophic Forgetting (CF) とは、モデルが新しいデータを学習するときに以前に取得した知識を忘れることを意味します。
これにより、微調整中の大規模言語モデル (LLM) の有効性が損なわれますが、根本的な原因は完全には調査されていません。
この論文は、LLM の分野におけるモデル損失ランドスケープの平坦性と CF の範囲との間の直接的な関係を明らかにするための第一歩を踏み出します。
これに基づいて、損失状況を平坦化することで CF を軽減するために、シャープネスを意識した最小化を導入します。
さまざまなモデルスケールにわたる 3 つの広く使用されている微調整データセットの実験により、CF の軽減における私たちの方法の有効性が実証されました。
分析の結果、我々は既存の忘却防止戦略をうまく補完し、CFに対するLLMの耐性をさらに強化していることが示されています。
要約(オリジナル)
Catastrophic Forgetting (CF) means models forgetting previously acquired knowledge when learning new data. It compromises the effectiveness of large language models (LLMs) during fine-tuning, yet the underlying causes have not been thoroughly investigated. This paper takes the first step to reveal the direct link between the flatness of the model loss landscape and the extent of CF in the field of LLMs. Based on this, we introduce the sharpness-aware minimization to mitigate CF by flattening the loss landscape. Experiments on three widely-used fine-tuning datasets, spanning different model scales, demonstrate the effectiveness of our method in alleviating CF. Analyses show that we nicely complement the existing anti-forgetting strategies, further enhancing the resistance of LLMs to CF.
arxiv情報
著者 | Hongyu Li,Liang Ding,Meng Fang,Dacheng Tao |
発行日 | 2024-06-07 11:09:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google