要約
大規模言語モデル (LLM) は、人間のコミュニケーションを厳密に反映したテキストを理解して生成する際に、並外れた能力を示しています。
ただし、主な制限は、広範なパラメーター化から生じる、トレーニング中の大量の計算要求にあります。
この課題は、世界の動的な性質によってさらに強化されており、古い情報を修正したり、新しい知識を統合したりして、継続的な関連性を確保するために LLM を頻繁に更新する必要があります。
多くのアプリケーションでは、欠陥や望ましくない動作に対処するために、トレーニング後にモデルを継続的に調整する必要があることに注意してください。
オンザフライでモデルを変更するための効率的で軽量な方法への関心が高まっています。
この目的を達成するために、近年、LLM の知識編集技術が急速に発展しています。これは、さまざまな入力にわたって全体的なパフォーマンスを維持しながら、特定のドメイン内で LLM の動作を効率的に変更することを目的としています。
この論文では、まず知識編集の問題を定義し、次に最先端のアプローチの包括的なレビューを提供します。
教育理論と認知研究理論からインスピレーションを得て、知識編集方法を 3 つのグループ (外部知識に頼る方法、知識をモデルにマージする方法、および本質的な知識を編集する方法) に分類する統一分類基準を提案します。
さらに、代表的なナレッジ編集アプローチの包括的な経験的評価を行うための新しいベンチマークである KnowEdit を紹介します。
さらに、知識の所在場所の詳細な分析を提供します。これにより、LLM に固有の知識構造をより深く理解できるようになります。
最後に、ナレッジ編集の潜在的な応用例をいくつか取り上げ、その広範で影響力のある意味を概説します。
要約(オリジナル)
Large Language Models (LLMs) have shown extraordinary capabilities in understanding and generating text that closely mirrors human communication. However, a primary limitation lies in the significant computational demands during training, arising from their extensive parameterization. This challenge is further intensified by the dynamic nature of the world, necessitating frequent updates to LLMs to correct outdated information or integrate new knowledge, thereby ensuring their continued relevance. Note that many applications demand continual model adjustments post-training to address deficiencies or undesirable behaviors. There is an increasing interest in efficient, lightweight methods for on-the-fly model modifications. To this end, recent years have seen a burgeoning in the techniques of knowledge editing for LLMs, which aim to efficiently modify LLMs’ behaviors within specific domains while preserving overall performance across various inputs. In this paper, we first define the knowledge editing problem and then provide a comprehensive review of cutting-edge approaches. Drawing inspiration from educational and cognitive research theories, we propose a unified categorization criterion that classifies knowledge editing methods into three groups: resorting to external knowledge, merging knowledge into the model, and editing intrinsic knowledge. Furthermore, we introduce a new benchmark, KnowEdit, for a comprehensive empirical evaluation of representative knowledge editing approaches. Additionally, we provide an in-depth analysis of knowledge location, which can give a deeper understanding of the knowledge structures inherent within LLMs. Finally, we discuss several potential applications of knowledge editing, outlining its broad and impactful implications.
arxiv情報
著者 | Ningyu Zhang,Yunzhi Yao,Bozhong Tian,Peng Wang,Shumin Deng,Mengru Wang,Zekun Xi,Shengyu Mao,Jintian Zhang,Yuansheng Ni,Siyuan Cheng,Ziwen Xu,Xin Xu,Jia-Chen Gu,Yong Jiang,Pengjun Xie,Fei Huang,Lei Liang,Zhiqiang Zhang,Xiaowei Zhu,Jun Zhou,Huajun Chen |
発行日 | 2024-03-28 15:56:55+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google