要約
大規模言語モデル (LLM) の情報が急速に陳腐化しているため、新しい事実を組み込むためのさまざまな技術の開発が推進されています。
しかし、知識編集のための既存の方法は、特に多数の事実更新の中で、正確な事実識別と逐次的な論理的推論を必要とするマルチホップ質問において依然として困難に直面しています。
これらの課題に取り組むために、この文書では、ナレッジ グラフ (KG) の明示的知識表現と LLM の言語的柔軟性を統合する、単純かつ効果的な方法である大規模言語モデルのためのグラフ メモリベースの編集 (GMeLLo) を紹介します。
GMeLLo は単に質問応答に LLM を利用するだけでなく、これらのモデルを採用して自由形式の言語を構造化されたクエリとファクト トリプルに変換し、KG とのシームレスな対話を促進して、迅速な更新と正確なマルチホップ推論を実現します。
私たちの結果は、GMelo が、特に広範な知識編集を伴うシナリオにおいて、マルチホップ質問応答ベンチマーク MQuAKE における現在の最先端の知識編集手法を大幅に上回っていることを示しています。
要約(オリジナル)
The rapid obsolescence of information in Large Language Models (LLMs) has driven the development of various techniques to incorporate new facts. However, existing methods for knowledge editing still face difficulties with multi-hop questions that require accurate fact identification and sequential logical reasoning, particularly among numerous fact updates. To tackle these challenges, this paper introduces Graph Memory-based Editing for Large Language Models (GMeLLo), a straitforward and effective method that merges the explicit knowledge representation of Knowledge Graphs (KGs) with the linguistic flexibility of LLMs. Beyond merely leveraging LLMs for question answering, GMeLLo employs these models to convert free-form language into structured queries and fact triples, facilitating seamless interaction with KGs for rapid updates and precise multi-hop reasoning. Our results show that GMeLLo significantly surpasses current state-of-the-art knowledge editing methods in the multi-hop question answering benchmark, MQuAKE, especially in scenarios with extensive knowledge edits.
arxiv情報
著者 | Ruirui Chen,Weifeng Jiang,Chengwei Qin,Ishaan Singh Rawal,Cheston Tan,Dongkyu Choi,Bo Xiong,Bo Ai |
発行日 | 2024-08-28 16:15:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google