要約
知識の編集は、無関係な知識に対する副作用が最も少ないことを保証しながら、大規模な言語モデルによって予測されるターゲットの知識を交互にすることを目的としています。
知識編集を実現する効果的な方法は、事実上の関連性を予測するための極めて重要なパラメーターを特定し、それらを最適化プロセスで変更して予測を更新することです。
ただし、これらの位置は、ターゲット編集の主題に関連する最も無関係な関係を変更する傾向があるため、制御できません。
制御可能な編集のこの障害は、最適化プロセス中のショートカット学習の問題によるものであることを明らかにします。
具体的には、最適化中に学習するモデルの関係機能である2つの重要な機能を発見しますが、現在の最適化プロセスは、関係機能を無視しながら、主題機能を過剰に学習する傾向があります。
主題機能のこのショートカット学習を排除するために、主題機能の学習と関係機能のバランスをとる新しい2段階の最適化プロセスを提案します。
実験結果は、私たちのアプローチがショートカット学習からの知識の編集を成功裏に妨げ、最適な全体的なパフォーマンスを達成し、制御可能な知識編集に貢献することを示しています。
要約(オリジナル)
Knowledge editing aims to alternate the target knowledge predicted by large language models while ensuring the least side effects on unrelated knowledge. An effective way to achieve knowledge editing is to identify pivotal parameters for predicting factual associations and modify them with an optimization process to update the predictions. However, these locate-then-edit methods are uncontrollable since they tend to modify most unrelated relations connected to the subject of target editing. We unveil that this failure of controllable editing is due to a shortcut learning issue during the optimization process. Specifically, we discover two crucial features that are the subject feature and the relation feature for models to learn during optimization, but the current optimization process tends to over-learning the subject feature while neglecting the relation feature. To eliminate this shortcut learning of the subject feature, we propose a novel two-stage optimization process that balances the learning of the subject feature and the relation feature. Experimental results demonstrate that our approach successfully prevents knowledge editing from shortcut learning and achieves the optimal overall performance, contributing to controllable knowledge editing.
arxiv情報
著者 | Xiyu Liu,Zhengxiao Liu,Naibin Gu,Zheng Lin,Ji Xiang,Weiping Wang |
発行日 | 2025-06-04 15:06:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google