HyKGE: A Hypothesis Knowledge Graph Enhanced Framework for Accurate and Reliable Medical LLMs Responses

要約

この論文では、大規模言語モデル (LLM) の精度と信頼性を向上させるために、ナレッジ グラフ (KG) に基づく検索拡張生成 (RAG) を調査します。
最近のアプローチは、不十分で反復的な知識の検索、退屈で時間のかかるクエリ解析、単調な知識の利用といった問題に悩まされています。
この目的を達成するために、私たちは、LLM の強力な推論能力を活用してユーザーのクエリの不完全性を補い、LLM との対話プロセスを最適化し、取得された多様な知識を提供する Hypothesis Knowledge Graph Enhanced (HyKGE) フレームワークを開発します。
具体的には、HyKGE は、仮説出力を使用してゼロショット機能と LLM の豊富な知識を探索し、KG での実行可能な探索方向を拡張するだけでなく、LLM の応答の密度と効率を高めるための慎重に精選されたプロンプトを拡張します。
さらに、HO フラグメント粒度を意識した再ランク モジュールを導入して、取得した知識の多様性と関連性のバランスを確保しながらノイズを除去します。
2 つの LLM ターボを使用した 2 つの中国の医療多肢選択式質問データセットと 1 つの中国のオープンドメイン医療 Q&A データセットの実験により、精度と説明可能性の点で HyKGE の優位性が実証されました。

要約(オリジナル)

In this paper, we investigate the retrieval-augmented generation (RAG) based on Knowledge Graphs (KGs) to improve the accuracy and reliability of Large Language Models (LLMs). Recent approaches suffer from insufficient and repetitive knowledge retrieval, tedious and time-consuming query parsing, and monotonous knowledge utilization. To this end, we develop a Hypothesis Knowledge Graph Enhanced (HyKGE) framework, which leverages LLMs’ powerful reasoning capacity to compensate for the incompleteness of user queries, optimizes the interaction process with LLMs, and provides diverse retrieved knowledge. Specifically, HyKGE explores the zero-shot capability and the rich knowledge of LLMs with Hypothesis Outputs to extend feasible exploration directions in the KGs, as well as the carefully curated prompt to enhance the density and efficiency of LLMs’ responses. Furthermore, we introduce the HO Fragment Granularity-aware Rerank Module to filter out noise while ensuring the balance between diversity and relevance in retrieved knowledge. Experiments on two Chinese medical multiple-choice question datasets and one Chinese open-domain medical Q&A dataset with two LLM turbos demonstrate the superiority of HyKGE in terms of accuracy and explainability.

arxiv情報

著者 Xinke Jiang,Ruizhe Zhang,Yongxin Xu,Rihong Qiu,Yue Fang,Zhiyuan Wang,Jinyi Tang,Hongxin Ding,Xu Chu,Junfeng Zhao,Yasha Wang
発行日 2024-04-19 07:14:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク