要約
大規模言語モデル (LLM) は、知識集約型のタスクでは競争力のあるパフォーマンスを発揮しますが、世界のすべての知識、特にロングテールの知識を記憶するには依然として限界があります。
この論文では、豊富な世界知識を必要とするナレッジグラフ質問応答 (KGQA) タスクを解決するための KG 拡張言語モデル アプローチを研究します。
既存の研究では、KG 知識を取得して LLM プロンプトを強化すると、KGQA における LLM のパフォーマンスが大幅に向上することが示されています。
しかし、彼らのアプローチには、KG 知識の適切な言語化が欠けており、KG 表現とテキスト表現の間のギャップが無視されています。
この目的を達成するために、私たちは、KG の知識を KGQA にとって最も有益な適切にテキスト化されたステートメントに変換できる、回答重視の KG-to-Text アプローチを提案します。
このアプローチに基づいて、KGQA タスクを解決するための KG-to-Text 拡張 LLM フレームワークを提案します。
いくつかの KGQA ベンチマークの実験では、提案された KG-to-Text 拡張 LLM アプローチが、回答の精度と知識ステートメントの有用性に関して、以前の KG 拡張 LLM アプローチよりも優れていることが示されています。
要約(オリジナル)
Despite their competitive performance on knowledge-intensive tasks, large language models (LLMs) still have limitations in memorizing all world knowledge especially long tail knowledge. In this paper, we study the KG-augmented language model approach for solving the knowledge graph question answering (KGQA) task that requires rich world knowledge. Existing work has shown that retrieving KG knowledge to enhance LLMs prompting can significantly improve LLMs performance in KGQA. However, their approaches lack a well-formed verbalization of KG knowledge, i.e., they ignore the gap between KG representations and textual representations. To this end, we propose an answer-sensitive KG-to-Text approach that can transform KG knowledge into well-textualized statements most informative for KGQA. Based on this approach, we propose a KG-to-Text enhanced LLMs framework for solving the KGQA task. Experiments on several KGQA benchmarks show that the proposed KG-to-Text augmented LLMs approach outperforms previous KG-augmented LLMs approaches regarding answer accuracy and usefulness of knowledge statements.
arxiv情報
著者 | Yike Wu,Nan Hu,Guilin Qi,Sheng Bi,Jie Ren,Anhuan Xie,Wei Song |
発行日 | 2023-09-20 10:42:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google