Scalable Model Editing via Customized Expert Networks

要約

大規模な言語モデルにおける幻覚や時代遅れの知識の問題に対処することは、その信頼性の高い適用にとって重要である。モデル編集は、費用対効果の高い方法でこれらの課題を軽減する有望な手段を提示する。しかし、既存の手法は、しばしば満足のいく汎化や、無関係なサンプルに対する意図しない効果に悩まされている。これらの限界を克服するために、我々は新しいアプローチを紹介する:カスタマイズされたエキスパートネットワークを介したスケーラブルなモデル編集(SCEN)は、2段階の継続的なトレーニングパラダイムである。具体的には、第一段階では、更新が必要な知識の断片ごとに軽量エキスパートネットワークを個別に訓練する。その後、各エキスパートに対応するニューロンを訓練し、そのエキスパートの活性化状態を制御する。Llama2 7Bと13Bという2つの異なるサイズのオープンソースの大規模言語モデルを用いた実験では、既存の主流のモデル編集手法と比較して最先端の結果を達成した。我々のコードは https: //github.com/TAL-auroraX/SCEN で利用可能です。

要約(オリジナル)

Addressing the issue of hallucinations and outdated knowledge in large language models is critical for their reliable application. Model Editing presents a promising avenue for mitigating these challenges in a cost-effective manner. However, existing methods often suffer from unsatisfactory generalization and unintended effects on unrelated samples. To overcome these limitations, we introduce a novel approach: Scalable Model Editing via Customized Expert Networks (SCEN), which is a two-stage continuous training paradigm. Specifically, in the first stage, we train lightweight expert networks individually for each piece of knowledge that needs to be updated. Subsequently, we train a corresponding neuron for each expert to control the activation state of that expert. Our experiments on two different sizes of open-source large language models, the Llama2 7B and 13B, achieve state-of-the-art results compared to existing mainstream Model Editing methods. Our code is available at https: //github.com/TAL-auroraX/SCEN

arxiv情報

著者 Zihan Yao,Yu He,Tianyu Qi,Ming Li
発行日 2024-04-03 12:57:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク