Enhancing Multi-hop Reasoning through Knowledge Erasure in Large Language Model Editing

要約

大規模言語モデル (LLM) は、内部知識の不正確さや古い情報という課題に直面しています。
ナレッジ編集は、これらの問題を軽減するための極めて重要なアプローチとして浮上しています。
現在の知識編集技術は、シングルホップ推論タスクでは有望なパフォーマンスを示しますが、マルチホップ推論に適用すると制限が生じます。
認知神経科学とLLMの動作メカニズムに基づいて、編集後に残ったシングルホップの知識により、マルチホップの質問を処理するときに編集されたモデルが元の答えに戻り、それによってマルチホップ推論タスクでのパフォーマンスが損なわれるという仮説を立てます。
この仮説を検証するために、私たちは仮説を経験的に確認する一連の実験を実施します。
検証された仮説に基づいて、大規模言語モデル編集 (KELE) の知識消去メカニズムを組み込んだ新しい知識編集方法を提案します。
具体的には、残存知識の消去機能と、新たな知識の注入機能を設計します。
共同最適化を通じて、最適な再現ベクトルを導き出し、その後、このベクトルをランク 1 編集フレームワーク内で利用して、ターゲットのモデル レイヤーのパラメーターを更新します。
GPT-J および GPT-2 XL に関する広範な実験により、KELE が編集された LLM のマルチホップ推論能力を大幅に強化することが実証されました。

要約(オリジナル)

Large language models (LLMs) face challenges with internal knowledge inaccuracies and outdated information. Knowledge editing has emerged as a pivotal approach to mitigate these issues. Although current knowledge editing techniques exhibit promising performance in single-hop reasoning tasks, they show limitations when applied to multi-hop reasoning. Drawing on cognitive neuroscience and the operational mechanisms of LLMs, we hypothesize that the residual single-hop knowledge after editing causes edited models to revert to their original answers when processing multi-hop questions, thereby undermining their performance in multihop reasoning tasks. To validate this hypothesis, we conduct a series of experiments that empirically confirm our assumptions. Building on the validated hypothesis, we propose a novel knowledge editing method that incorporates a Knowledge Erasure mechanism for Large language model Editing (KELE). Specifically, we design an erasure function for residual knowledge and an injection function for new knowledge. Through joint optimization, we derive the optimal recall vector, which is subsequently utilized within a rank-one editing framework to update the parameters of targeted model layers. Extensive experiments on GPT-J and GPT-2 XL demonstrate that KELE substantially enhances the multi-hop reasoning capability of edited LLMs.

arxiv情報

著者 Mengqi Zhang,Bowen Fang,Qiang Liu,Pengjie Ren,Shu Wu,Zhumin Chen,Liang Wang
発行日 2024-08-22 14:53:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク