UltraEdit: Training-, Subject-, and Memory-Free Lifelong Editing in Large Language Models

要約

生涯学習により、内部知識を継続的に更新することにより、大規模な言語モデル(LLMS)が進化する情報に適応することができます。
理想的なシステムは、既存の機能を維持し、信頼できる展開を確保しながら、効率的で幅広い更新をサポートする必要があります。
モデルの編集は、この目標の有望なソリューションとして際立っており、モデルの内部知識を修正するための焦点を絞った効率的な方法を提供します。
最近のパラダイムは顕著な進歩を遂げていますが、彼らはしばしば、大規模な実用的な生涯適応の要求を満たすのに苦労しています。
このギャップを埋めるために、トレーニング、サブジェクト、メモリフリーである根本的に新しい編集ソリューションであるUltraedit-Aを提案し、超スケーラブルで実世界の生涯モデル編集に特に適しています。
UltraEditは、軽量のリニア代数操作のみに依存してパラメーターシフトを計算する自己完結型プロセスを通じて編集を実行し、最小限のオーバーヘッドで高速で一貫したパラメーターの変更を可能にします。
生涯にわたる設定のスケーラビリティを向上させるために、UltraEditは、ターン全体で特徴統計を継続的に更新する生涯の正規化戦略を採用し、分布シフトに適応し、時間の経過とともに一貫性を維持することができます。
Ultraeditは、以前の最先端の方法よりも7倍以上速く編集速度を達成します。これは、VRAMの1/3未満を消費する最も速いアプローチでもあり、24GBの消費者グレードGPUで現在7B LLMを編集できる唯一の方法です。
さらに、これまでにフィールドで最大のデータセットであるUltraEditbenchを構築し、2Mを超える編集ペアを使用して、高精度を維持しながらこの方法が最大1mの編集をサポートしていることを示しています。
4つのデータセットと6つのモデルでの包括的な実験は、Ultraeditが一貫して多様なモデル編集シナリオ全体で優れたパフォーマンスを達成することを示しています。
私たちのコードは、https://github.com/xiaojiegu/ultraeditで入手できます。

要約(オリジナル)

Lifelong learning enables large language models (LLMs) to adapt to evolving information by continually updating their internal knowledge. An ideal system should support efficient, wide-ranging updates while preserving existing capabilities and ensuring reliable deployment. Model editing stands out as a promising solution for this goal, offering a focused and efficient way to revise a model’s internal knowledge. Although recent paradigms have made notable progress, they often struggle to meet the demands of practical lifelong adaptation at scale. To bridge this gap, we propose ULTRAEDIT-a fundamentally new editing solution that is training-, subject- and memory-free, making it particularly well-suited for ultra-scalable, real-world lifelong model editing. ULTRAEDIT performs editing through a self-contained process that relies solely on lightweight linear algebra operations to compute parameter shifts, enabling fast and consistent parameter modifications with minimal overhead. To improve scalability in lifelong settings, ULTRAEDIT employs a lifelong normalization strategy that continuously updates feature statistics across turns, allowing it to adapt to distributional shifts and maintain consistency over time. ULTRAEDIT achieves editing speeds over 7x faster than the previous state-of-the-art method-which was also the fastest known approach-while consuming less than 1/3 the VRAM, making it the only method currently capable of editing a 7B LLM on a 24GB consumer-grade GPU. Furthermore, we construct ULTRAEDITBENCH-the largest dataset in the field to date, with over 2M editing pairs-and demonstrate that our method supports up to 1M edits while maintaining high accuracy. Comprehensive experiments on four datasets and six models show that ULTRAEDIT consistently achieves superior performance across diverse model editing scenarios. Our code is available at: https://github.com/XiaojieGu/UltraEdit.

arxiv情報

著者 Xiaojie Gu,Guangxu Chen,Jungang Li,Jia-Chen Gu,Xuming Hu,Kai Zhang
発行日 2025-05-20 17:59:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク