CollabEdit: Towards Non-destructive Collaborative Knowledge Editing

要約

大規模言語モデル(LLM)の協調学習は、効率性とプライバシーを保証するために、異なる関係者からのプライベートデータを利用する新しいパラダイムとして浮上してきた。一方、LLMの知識編集(Knowledge Editing:KE)は、LLMの振る舞いを明示的に操作することができるため、注目を集めているが、協調的KEのケース(複数の関係者の知識編集がプライバシーを保持した継続的な方法で集約される)は未検証である。この目的のため、本原稿では、知識の重複、知識の衝突、知識の忘却を含む、協調的KEに特有の3つの課題を注意深く特定することから始める、協調的KEの最初の調査に飛び込む。そして、非破壊的協調KEフレームワークであるCOLLABEDITを提案する。COLLABEDITは、深刻な性能低下を防ぎながら、グローバルKEの挙動を模倣する新しいモデルマージ機構を採用している。2つの標準的なデータセットを用いた広範な実験により、COLLABEDITが他の破壊的なベースラインと比較して優れていることを実証し、3つの協調的KEの課題への対処と将来の応用に光を当てる。我々のコードはhttps://github.com/LINs-lab/CollabEdit。

要約(オリジナル)

Collaborative learning of large language models (LLMs) has emerged as a new paradigm for utilizing private data from different parties to guarantee efficiency and privacy. Meanwhile, Knowledge Editing (KE) for LLMs has also garnered increased attention due to its ability to manipulate the behaviors of LLMs explicitly, yet leaves the collaborative KE case (in which knowledge edits of multiple parties are aggregated in a privacy-preserving and continual manner) unexamined. To this end, this manuscript dives into the first investigation of collaborative KE, in which we start by carefully identifying the unique three challenges therein, including knowledge overlap, knowledge conflict, and knowledge forgetting. We then propose a non-destructive collaborative KE framework, COLLABEDIT, which employs a novel model merging mechanism to mimic the global KE behavior while preventing the severe performance drop. Extensive experiments on two canonical datasets demonstrate the superiority of COLLABEDIT compared to other destructive baselines, and results shed light on addressing three collaborative KE challenges and future applications. Our code is available at https://github.com/LINs-lab/CollabEdit.

arxiv情報

著者 Jiamu Zheng,Jinghuai Zhang,Tianyu Du,Xuhong Zhang,Jianwei Yin,Tao Lin
発行日 2025-02-03 08:17:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL, cs.CY パーマリンク