要約
大規模な言語モデル(LLMS)は、自然言語の理解と生成における優れた能力のため、質問回答(QA)タスクの顕著なパフォーマンスを実証しています。
ただし、LLMベースのQAは、推論能力の低さ、時代遅れの知識、幻覚のために、複雑なQAタスクと闘っています。
最近のいくつかの研究は、上記の課題に対処するために、QAのLLMSと知識グラフ(KG)を統合しています。
この調査では、QAのカテゴリとLLMSと統合する際のKGの役割に従って、QAのLLMとKGSを合成する方法論を分類する新しい構造化された分類法を提案します。
QAのLLMSとKGSの合成における最先端の進歩を体系的に調査し、これらのアプローチを強度、制限、KG要件の観点から比較および分析します。
次に、アプローチをQAに合わせて、これらのアプローチが異なる複雑なQAの主要な課題にどのように対処するかを議論します。
最後に、進歩、評価のメトリック、ベンチマークデータセットを要約し、own open課題と機会を強調します。
要約(オリジナル)
Large language models (LLMs) have demonstrated remarkable performance on question-answering (QA) tasks because of their superior capabilities in natural language understanding and generation. However, LLM-based QA struggles with complex QA tasks due to poor reasoning capacity, outdated knowledge, and hallucinations. Several recent works synthesize LLMs and knowledge graphs (KGs) for QA to address the above challenges. In this survey, we propose a new structured taxonomy that categorizes the methodology of synthesizing LLMs and KGs for QA according to the categories of QA and the KG’s role when integrating with LLMs. We systematically survey state-of-the-art advances in synthesizing LLMs and KGs for QA and compare and analyze these approaches in terms of strength, limitations, and KG requirements. We then align the approaches with QA and discuss how these approaches address the main challenges of different complex QA. Finally, we summarize the advancements, evaluation metrics, and benchmark datasets and highlight open challenges and opportunities.
arxiv情報
著者 | Chuangtao Ma,Yongrui Chen,Tianxing Wu,Arijit Khan,Haofen Wang |
発行日 | 2025-05-26 15:08:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google