StructRAG: Boosting Knowledge Intensive Reasoning of LLMs via Inference-time Hybrid Information Structurization

要約

検索拡張生成 (RAG) は、多くの知識ベースのタスクにおいて大規模言語モデル (LLM) を効果的に強化するための重要な手段です。
しかし、既存の RAG 手法は、知識集約型推論タスクに必要な有用な情報がひどく散在しているため、知識集約型推論タスクには苦労しています。
この特性により、既存の RAG 手法では、重要な情報を正確に特定し、このようなノイズの多い拡張で大域的な推論を実行することが困難になります。
この論文では、人間が知識集約型の推論に取り組む際に生の情報をさまざまな構造化された知識に変換するという認知理論に動機付けられ、目の前のタスクに最適な構造タイプを特定し、元の文書を再構成できる新しいフレームワーク StructRAG を提案します。
この構造化された形式を解析し、結果の構造に基づいて回答を推測します。
さまざまな知識集約型タスクにわたる広範な実験により、StructRAG が最先端のパフォーマンスを達成し、特に困難なシナリオで優れていることが示され、複雑な現実世界のアプリケーションで LLM を強化するための効果的なソリューションとしての可能性が実証されました。

要約(オリジナル)

Retrieval-augmented generation (RAG) is a key means to effectively enhance large language models (LLMs) in many knowledge-based tasks. However, existing RAG methods struggle with knowledge-intensive reasoning tasks, because useful information required to these tasks are badly scattered. This characteristic makes it difficult for existing RAG methods to accurately identify key information and perform global reasoning with such noisy augmentation. In this paper, motivated by the cognitive theories that humans convert raw information into various structured knowledge when tackling knowledge-intensive reasoning, we proposes a new framework, StructRAG, which can identify the optimal structure type for the task at hand, reconstruct original documents into this structured format, and infer answers based on the resulting structure. Extensive experiments across various knowledge-intensive tasks show that StructRAG achieves state-of-the-art performance, particularly excelling in challenging scenarios, demonstrating its potential as an effective solution for enhancing LLMs in complex real-world applications.

arxiv情報

著者 Zhuoqun Li,Xuanang Chen,Haiyang Yu,Hongyu Lin,Yaojie Lu,Qiaoyu Tang,Fei Huang,Xianpei Han,Le Sun,Yongbin Li
発行日 2024-10-11 13:52:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク