Enhancing Large Language Models with Pseudo- and Multisource- Knowledge Graphs for Open-ended Question Answering

要約

大規模言語モデル (LLM) の幻覚を軽減し、強化することは重要な課題です。
いくつかの既存の方法はモデル自己強化技術を採用していますが、未知の事実に基づく幻覚に効果的に対処するには不十分です。
ナレッジ グラフ (KG) 強化アプローチを使用すると、さまざまな KG ソースにわたる一般化と自由回答形式の質問の強化に同時に対処できません。
これらの制限に対処するために、擬似グラフ生成とアトミック知識検証を組み合わせたフレームワークが提案されています。
自由形式の質問応答設定で KG を使用する LLM の拡張は、擬似グラフ生成を活用することによって実装されます。
アトミック知識検証は、アトミックレベルの知識のクエリと検証を利用して、さまざまな KG ソースの下で一般化可能性を実現します。
ベースラインと比較して、このアプローチでは自由回答形式の質問の ROUGE-L スコアが少なくとも 11.5 向上しました。
正確な質問については、最小 7.5 の精度向上が観察されます。
さらに、このフレームワークがさまざまな KG ソースにわたって一般化可能性を示すことも実証されています。
要約すると、私たちの結果は、特に自由回答形式の質問のコンテキストにおいて、擬似ソース KG とマルチソース KG を組み込むことによって LLM を強化する道を切り開きます。

要約(オリジナル)

Mitigating the hallucinations of Large Language Models (LLMs) and enhancing them is a crucial task. Although some existing methods employ model self-enhancement techniques, they fall short of effectively addressing unknown factual hallucinations. Using Knowledge Graph (KG) enhancement approaches fails to address the generalization across different KG sources and the enhancement of open-ended answer questions simultaneously. To tackle these limitations, there is a framework that combines Pseudo-Graph Generation and Atomic Knowledge Verification proposed. The enhancement of LLM using KG in an open-ended question-answering setting is implemented by leveraging the Pseudo-Graph Generation. Atomic Knowledge Verification utilizes atomic-level knowledge querying and verification to achieve generalizability under different KG sources. Compared to the baseline, this approach yields a minimum improvement of 11.5 in the ROUGE-L score for open-ended questions. For precise questions, we observe a minimum accuracy improvement of 7.5. Moreover, there is also demonstration that this framework exhibits generalizability across different KG sources. In summary, our results pave the way for enhancing LLMs by incorporating Pseudo- and Multisource-KGs, particularly in the context of open-ended questions.

arxiv情報

著者 Jiaxiang Liu,Tong Zhou,Yubo Chen,Kang Liu,Jun Zhao
発行日 2024-02-15 12:20:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク