LyapLock: Bounded Knowledge Preservation in Sequential Large Language Model Editing

要約

大規模な言語モデルには、多くの場合、事実上不正確または時代遅れの知識が含まれており、正確な知識の更新のためのモデル編集方法が生じます。
ただし、現在の主流の位置は、長期的な知識の保存のための不十分なメカニズムのため、連続編集中に進行性のパフォーマンスの低下を示します。
これに取り組むために、制約された確率的プログラミングとしてシーケンシャル編集をモデル化します。
累積保存エラーの制約と徐々に明らかにされた編集タスクによってもたらされる課題を考えると、\ textbf {lyaplock}が提案されています。
キューイング理論とリアプノフの最適化を統合して、長期的に制約されたプログラミングを効率的な解決のために扱いやすい段階的サブ問題に分解します。
これは、厳密な理論的保証を備えた最初のモデル編集フレームワークであり、長期的な知識保存の制約を満たしながら漸近最適な編集パフォーマンスを達成します。
実験結果は、我々のフレームワークが10,000を超える編集能力をスケーリングしながら、一般的な機能を安定させ、SOTAベースラインで平均編集効果を11.89%増加させることを示しています。
さらに、ベースラインメソッドのパフォーマンスを向上させるために活用できます。
私たちのコードは、https://github.com/caskcsg/lyaplockでリリースされています。

要約(オリジナル)

Large Language Models often contain factually incorrect or outdated knowledge, giving rise to model editing methods for precise knowledge updates. However, current mainstream locate-then-edit approaches exhibit a progressive performance decline during sequential editing, due to inadequate mechanisms for long-term knowledge preservation. To tackle this, we model the sequential editing as a constrained stochastic programming. Given the challenges posed by the cumulative preservation error constraint and the gradually revealed editing tasks, \textbf{LyapLock} is proposed. It integrates queuing theory and Lyapunov optimization to decompose the long-term constrained programming into tractable stepwise subproblems for efficient solving. This is the first model editing framework with rigorous theoretical guarantees, achieving asymptotic optimal editing performance while meeting the constraints of long-term knowledge preservation. Experimental results show that our framework scales sequential editing capacity to over 10,000 edits while stabilizing general capabilities and boosting average editing efficacy by 11.89\% over SOTA baselines. Furthermore, it can be leveraged to enhance the performance of baseline methods. Our code is released on https://github.com/caskcsg/LyapLock.

arxiv情報

著者 Peng Wang,Biyu Zhou,Xuehai Tang,Jizhong Han,Songlin Hu
発行日 2025-05-21 16:16:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク