要約
大規模言語モデル (LLM) は、さまざまな分野で優れた機能を実証していますが、幻覚を受けやすいため、医療などの重要な分野での導入には大きな課題が生じています。
この問題に対処するには、ナレッジ グラフ (KG) から関連ファクトを取得することが有望な方法と考えられています。
既存の KG 拡張アプローチはリソースを大量に消費する傾向があり、ファクトイドごとに複数回の取得と検証を必要とするため、現実世界のシナリオでの適用が妨げられます。
この研究では、医療分野での少ない検索労力でLLMの応答の事実性を強化する自己洗練強化ナレッジグラフ検索(Re-KGR)を提案します。
私たちのアプローチは、さまざまなトークンにわたる次のトークンの予測確率分布の帰属とさまざまなモデル層を活用して、幻覚の可能性が高いトークンを主に特定し、これらのトークンに関連付けられた知識トリプルを洗練することで検証ラウンドを削減します。
さらに、後処理段階で取得した知識を使用して不正確なコンテンツを修正し、生成された応答の真実性を向上させます。
医療データセットに関する実験結果は、真実性に関する最高スコアによって証明されるように、私たちのアプローチがさまざまな基礎モデルにわたって LLM の事実上の能力を強化できることを示しています。
要約(オリジナル)
Large language models (LLMs) have demonstrated remarkable capabilities across various domains, although their susceptibility to hallucination poses significant challenges for their deployment in critical areas such as healthcare. To address this issue, retrieving relevant facts from knowledge graphs (KGs) is considered a promising method. Existing KG-augmented approaches tend to be resource-intensive, requiring multiple rounds of retrieval and verification for each factoid, which impedes their application in real-world scenarios. In this study, we propose Self-Refinement-Enhanced Knowledge Graph Retrieval (Re-KGR) to augment the factuality of LLMs’ responses with less retrieval efforts in the medical field. Our approach leverages the attribution of next-token predictive probability distributions across different tokens, and various model layers to primarily identify tokens with a high potential for hallucination, reducing verification rounds by refining knowledge triples associated with these tokens. Moreover, we rectify inaccurate content using retrieved knowledge in the post-processing stage, which improves the truthfulness of generated responses. Experimental results on a medical dataset demonstrate that our approach can enhance the factual capability of LLMs across various foundational models as evidenced by the highest scores on truthfulness.
arxiv情報
著者 | Mengjia Niu,Hao Li,Jie Shi,Hamed Haddadi,Fan Mo |
発行日 | 2024-05-10 15:40:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google