Editing Large Language Models: Problems, Methods, and Opportunities

要約

深層学習の最近の進歩により、人間の言語に似たテキストを理解して生成する優れた能力を示す大規模言語モデル (LLM) の出現が促進されました。
非常に有能な LLM をトレーニングできるにもかかわらず、その関連性を維持し、エラーを修正するための方法論は依然としてとらえどころがありません。
そのため、ここ数年、LLM を編集する技術が急増しています。その目的は、他の入力全体のパフォーマンスに悪影響を与えることなく、特定のドメイン内の LLM の動作を変更することです。
このペーパーでは、LLM のモデル編集に関連する問題、方法、機会についての深い調査に着手します。
特に、モデル編集に関連するタスク定義と課題の徹底的な概要を提供するとともに、現在利用できる最も進歩的な手法の詳細な実証分析も提供します。
また、より堅牢な評価を促進し、既存の手法に固有の永続的な問題を正確に特定するために、新しいベンチマーク データセットを構築します。
私たちの目的は、各モデル編集手法の有効性と実現可能性について貴重な洞察を提供し、それによって研究コミュニティが特定のタスクやコンテキストに最適な方法を選択する際に情報に基づいた意思決定を行えるように支援することです。
コードとデータセットは https://github.com/zjunlp/EasyEdit で入手できます。

要約(オリジナル)

Recent advancements in deep learning have precipitated the emergence of large language models (LLMs) which exhibit an impressive aptitude for understanding and producing text akin to human language. Despite the ability to train highly capable LLMs, the methodology for maintaining their relevancy and rectifying errors remains elusive. To that end, the past few years have witnessed a surge in techniques for editing LLMs, the objective of which is to alter the behavior of LLMs within a specific domain without negatively impacting performance across other inputs. This paper embarks on a deep exploration of the problems, methods, and opportunities relating to model editing for LLMs. In particular, we provide an exhaustive overview of the task definition and challenges associated with model editing, along with an in-depth empirical analysis of the most progressive methods currently at our disposal. We also build a new benchmark dataset to facilitate a more robust evaluation and pinpoint enduring issues intrinsic to existing techniques. Our objective is to provide valuable insights into the effectiveness and feasibility of each model editing technique, thereby assisting the research community in making informed decisions when choosing the most appropriate method for a specific task or context. Code and datasets will be available at https://github.com/zjunlp/EasyEdit.

arxiv情報

著者 Yunzhi Yao,Peng Wang,Bozhong Tian,Siyuan Cheng,Zhoubo Li,Shumin Deng,Huajun Chen,Ningyu Zhang
発行日 2023-05-22 16:00:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CV, cs.IR, cs.LG パーマリンク