CausalRAG: Integrating Causal Graphs into Retrieval-Augmented Generation

要約

大規模な言語モデル(LLM)は、特に検索された生成(RAG)を通じて自然言語処理(NLP)に革命をもたらしました。これは、外部の知識を統合することによりLLM機能を強化します。
ただし、従来のRAGシステムは、テキストのチャンクによる文脈的完全性の破壊や、検索のセマンティックな類似性への過度の依存など、重大な制限に直面しています。
これらの問題に対処するために、因果グラフを検索プロセスに組み込んだ新しいフレームワークである因果関係を提案します。
因果関係を構築および追跡することにより、因果関係はコンテキストの連続性を保持し、検索精度を改善し、より正確で解釈可能な応答につながります。
通常のRAGおよびグラフベースのRAGアプローチに対して因果関係を評価し、いくつかのメトリックにわたってその優位性を示します。
私たちの調査結果は、因果的推論における接地検索が知識集約型のタスクに対する有望なアプローチを提供することを示唆しています。

要約(オリジナル)

Large language models (LLMs) have revolutionized natural language processing (NLP), particularly through Retrieval-Augmented Generation (RAG), which enhances LLM capabilities by integrating external knowledge. However, traditional RAG systems face critical limitations, including disrupted contextual integrity due to text chunking, and over-reliance on semantic similarity for retrieval. To address these issues, we propose CausalRAG, a novel framework that incorporates causal graphs into the retrieval process. By constructing and tracing causal relationships, CausalRAG preserves contextual continuity and improves retrieval precision, leading to more accurate and interpretable responses. We evaluate CausalRAG against regular RAG and graph-based RAG approaches, demonstrating its superiority across several metrics. Our findings suggest that grounding retrieval in causal reasoning provides a promising approach to knowledge-intensive tasks.

arxiv情報

著者 Nengbo Wang,Xiaotian Han,Jagdip Singh,Jing Ma,Vipin Chaudhary
発行日 2025-03-25 17:43:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR パーマリンク