MEMOIR: Lifelong Model Editing with Minimal Overwrite and Informed Retention for LLMs

要約

実際のシステムに展開された言語モデルは、多くの場合、新しい知識または修正された知識を組み込むために事後更新が必要です。
ただし、このようなモデルを効率的かつ確実に編集することは、以前の情報を再訓練または忘れることなく、大きな課題です。
妥協の一般化、過去の編集を妨害する、または長い編集シーケンスへのスケーリングに失敗する生涯モデル編集のための既存の方法。
Memoirを提案します。これは、事前に訓練されたモデルのコア機能を維持しながら、残留メモリ、つまり専用のパラメーターモジュールを介して知識を注入する新しいスケーラブルなフレームワークです。
サンプル依存マスクを介して入力アクティベーションをスパーリングすることにより、回顧録は各編集をメモリパラメーターの異なるサブセットに閉じ込め、編集間の干渉を最小限に抑えます。
推論では、編集中に保存されているものと新しいクエリのスパースアクティベーションパターンを比較することにより、関連する編集を識別します。
これにより、関連する知識のみをアクティブにしながら、無関係なプロンプトの不要なメモリ活性化を抑制することにより、一般化が言い換えられるクエリを再定理化することができます。
Llama-3およびMistral全体で質問の回答、幻覚補正、および分散式の一般化ベンチマークに関する実験は、メモが信頼性、一般化、および地域の指標にわたって最先端のパフォーマンスを達成し、最小限の忘却を伴う数千の連続した編集に拡大することを示しています。

要約(オリジナル)

Language models deployed in real-world systems often require post-hoc updates to incorporate new or corrected knowledge. However, editing such models efficiently and reliably – without retraining or forgetting previous information – remains a major challenge. Existing methods for lifelong model editing either compromise generalization, interfere with past edits, or fail to scale to long editing sequences. We propose MEMOIR, a novel scalable framework that injects knowledge through a residual memory, i.e., a dedicated parameter module, while preserving the core capabilities of the pre-trained model. By sparsifying input activations through sample-dependent masks, MEMOIR confines each edit to a distinct subset of the memory parameters, minimizing interference among edits. At inference, it identifies relevant edits by comparing the sparse activation patterns of new queries to those stored during editing. This enables generalization to rephrased queries by activating only the relevant knowledge while suppressing unnecessary memory activation for unrelated prompts. Experiments on question answering, hallucination correction, and out-of-distribution generalization benchmarks across LLaMA-3 and Mistral demonstrate that MEMOIR achieves state-of-the-art performance across reliability, generalization, and locality metrics, scaling to thousands of sequential edits with minimal forgetting.

arxiv情報

著者 Ke Wang,Yiming Qin,Nikolaos Dimitriadis,Alessandro Favero,Pascal Frossard
発行日 2025-06-09 16:16:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク