要約
大規模な言語モデル(LLMS)の共同学習は、さまざまな関係者のプライベートデータを利用して効率とプライバシーを保証するための新しいパラダイムとして浮上しています。
一方、LLMSの知識編集(KE)は、LLMの行動を明示的に操作する能力のために注目を集めていますが、共同のKEケースを残します(複数の関係者の知識編集は、プライバシーを提供し、継続的な方法で集約されます。
)未検証。
この目的のために、この原稿は、知識の重複、知識の対立、知識の忘却など、その中のユニークな3つの課題を慎重に特定することからまず、共同のKEの最初の調査に分かれます。
次に、非破壊的なコラボレーションKEフレームワークであるCollabeditを提案します。このCollabeditは、グローバルなKEの動作を模倣しながら、深刻なパフォーマンスの低下を防ぎながら、グローバルなKEの動作を模倣する新しいモデルを採用しています。
2つの標準データセットでの広範な実験は、他の破壊的なベースラインと比較してCollabeditの優位性を示しており、結果は3つの共同KEの課題と将来のアプリケーションに対処することに光を当てています。
私たちのコードは、https://github.com/lins-lab/collabeditで入手できます。
要約(オリジナル)
Collaborative learning of large language models (LLMs) has emerged as a new paradigm for utilizing private data from different parties to guarantee efficiency and privacy. Meanwhile, Knowledge Editing (KE) for LLMs has also garnered increased attention due to its ability to manipulate the behaviors of LLMs explicitly, yet leaves the collaborative KE case (in which knowledge edits of multiple parties are aggregated in a privacy-preserving and continual manner) unexamined. To this end, this manuscript dives into the first investigation of collaborative KE, in which we start by carefully identifying the unique three challenges therein, including knowledge overlap, knowledge conflict, and knowledge forgetting. We then propose a non-destructive collaborative KE framework, COLLABEDIT, which employs a novel model merging mechanism to mimic the global KE behavior while preventing the severe performance drop. Extensive experiments on two canonical datasets demonstrate the superiority of COLLABEDIT compared to other destructive baselines, and results shed light on addressing three collaborative KE challenges and future applications. Our code is available at https://github.com/LINs-lab/CollabEdit.
arxiv情報
著者 | Jiamu Zheng,Jinghuai Zhang,Tianyu Du,Xuhong Zhang,Jianwei Yin,Tao Lin |
発行日 | 2025-02-07 15:49:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google