要約
大規模な言語モデル(LLM)は強力な推論能力を示していますが、幻覚や時代遅れの知識などの制限に直面しています。
Knowledge Graph(kg)ベースの検索された生成(RAG)は、KGSからの構造化された外部知識のLLM出力を接地することにより、これらの問題に対処します。
ただし、現在のKGベースのRAGフレームワークは、検索の有効性と、LLMが消化するための適切な量の関連グラフ情報を特定する効率とのトレードオフを最適化するのに苦労しています。
サブグラフラグを紹介し、Subgraphsを取得し、LLMをレバレッジして推論および回答予測をレバレッジするKGベースのRAGフレームワークを拡張します。
私たちのアプローチは、軽量の多層パーセプトロンを革新的に統合し、効率的かつ柔軟なサブグラフ検索のための並列トリプルスコアリングメカニズムを統合し、検索の有効性を高めるための方向構造距離をエンコードします。
取得したサブグラフのサイズは、クエリのニーズと下流のLLMの機能に合わせて柔軟に調整できます。
この設計は、モデルの複雑さと推論力のバランスを取り、スケーラブルで一般化可能な検索プロセスを可能にします。
特に、検索されたサブグラフに基づいて、LLAMA3.1-8B-Instructのような小さなLLMSは説明可能な推論で競争力のある結果を提供しますが、GPT-4oのような大きなモデルは以前のベースラインと比較して最先端の精度を達成します。
-チューニング。
WebQSPおよびCWQベンチマークでの広範な評価は、幻覚を減らし、応答の接地を改善することにより、効率、精度、および信頼性におけるサブグラフラグの強さを強調しています。
要約(オリジナル)
Large Language Models (LLMs) demonstrate strong reasoning abilities but face limitations such as hallucinations and outdated knowledge. Knowledge Graph (KG)-based Retrieval-Augmented Generation (RAG) addresses these issues by grounding LLM outputs in structured external knowledge from KGs. However, current KG-based RAG frameworks still struggle to optimize the trade-off between retrieval effectiveness and efficiency in identifying a suitable amount of relevant graph information for the LLM to digest. We introduce SubgraphRAG, extending the KG-based RAG framework that retrieves subgraphs and leverages LLMs for reasoning and answer prediction. Our approach innovatively integrates a lightweight multilayer perceptron with a parallel triple-scoring mechanism for efficient and flexible subgraph retrieval while encoding directional structural distances to enhance retrieval effectiveness. The size of retrieved subgraphs can be flexibly adjusted to match the query’s need and the downstream LLM’s capabilities. This design strikes a balance between model complexity and reasoning power, enabling scalable and generalizable retrieval processes. Notably, based on our retrieved subgraphs, smaller LLMs like Llama3.1-8B-Instruct deliver competitive results with explainable reasoning, while larger models like GPT-4o achieve state-of-the-art accuracy compared with previous baselines — all without fine-tuning. Extensive evaluations on the WebQSP and CWQ benchmarks highlight SubgraphRAG’s strengths in efficiency, accuracy, and reliability by reducing hallucinations and improving response grounding.
arxiv情報
著者 | Mufei Li,Siqi Miao,Pan Li |
発行日 | 2025-02-05 17:45:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google