DeepNote: Note-Centric Deep Retrieval-Augmented Generation

要約

検索された生成(RAG)は、外部の知識を組み込むことにより、質問回答(QA)の大規模な言語モデル(LLM)の事実上の誤りと幻覚を軽減します。
ただし、既存の適応RAGメソッドは、検索タイミングを予測するためにLLMSに依存し、検索された情報を生成に直接使用し、実際の情報のニーズを反映していないことが多く、検索された知識を完全に活用します。
メモ中心の適応検索を通じて知識ソースの詳細かつ堅牢な探索を実現する適応的なRAGフレームワークであるDeepNoteを開発します。
DeepNoteは、知識を洗練および蓄積するためのキャリアとしてメモを採用しています。
詳細な調査中に、これらのメモを使用して検索タイミングを決定し、検索クエリを定式化し、知識の成長を繰り返し評価し、最終的に回答生成に最適なメモを活用します。
広範な実験と分析は、DeepNoteがすべてのベースライン( +10.2%〜 +20.1%)を大幅に上回り、高密度と品質の両方で知識を収集する能力を示すことを示しています。
さらに、DPOはDeepNoteのパフォーマンスをさらに向上させます。
コードとデータは、https://github.com/thunlp/deepnoteで入手できます。

要約(オリジナル)

Retrieval-Augmented Generation (RAG) mitigates factual errors and hallucinations in Large Language Models (LLMs) for question-answering (QA) by incorporating external knowledge. However, existing adaptive RAG methods rely on LLMs to predict retrieval timing and directly use retrieved information for generation, often failing to reflect real information needs and fully leverage retrieved knowledge. We develop DeepNote, an adaptive RAG framework that achieves in-depth and robust exploration of knowledge sources through note-centric adaptive retrieval. DeepNote employs notes as carriers for refining and accumulating knowledge. During in-depth exploration, it uses these notes to determine retrieval timing, formulate retrieval queries, and iteratively assess knowledge growth, ultimately leveraging the best note for answer generation. Extensive experiments and analyses demonstrate that DeepNote significantly outperforms all baselines (+10.2% to +20.1%) and exhibits the ability to gather knowledge with both high density and quality. Additionally, DPO further improves the performance of DeepNote. The code and data are available at https://github.com/thunlp/DeepNote.

arxiv情報

著者 Ruobing Wang,Qingfei Zhao,Yukun Yan,Daren Zha,Yuxuan Chen,Shi Yu,Zhenghao Liu,Yixuan Wang,Shuo Wang,Xu Han,Zhiyuan Liu,Maosong Sun
発行日 2025-04-07 16:17:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク