Agent-UniRAG: A Trainable Open-Source LLM Agent Framework for Unified Retrieval-Augmented Generation Systems

要約

このペーパーでは、最近の新興大手言語モデル(LLM)エージェントコンセプトを使用して、統一された検索充電(RAG)システムの新しいアプローチを紹介します。
具体的には、LLMを基本的なコントローラーとして利用するエージェントLLMは、特に複雑な推論質問システム(たとえば、マルチホップクエリ)のために、RAGタスクの解釈可能性を可能にする有望なアプローチとなっています。
それにもかかわらず、以前の作業は主に、シングルホップまたはマルチホップアプローチのいずれかを個別に解決することに焦点を当てており、これらのアプローチのアプリケーションが実際のアプリケーションへのアプリケーションを制限しています。
この研究では、RAGシステムの有効性と解釈可能性を高める統合検索編成LLMシステムのエージェントユニラグと呼ばれるトレーニング可能なエージェントフレームワークを提案します。
主なアイデアは、LLMエージェントフレームワークを設計して、入力の複雑さに基づいて段階的なラグタスクを解決することです。同時に、シングルホップとマルチホップクエリをエンドツーエンドの方法で含めます。
さらに、小さなオープンソースLLMS(例:LLAMA-3-8B)の提案されたエージェントフレームワークを有効にするために、合成データセットであるSynagent-Ragを導入します。
結果は、さまざまなぼろきれベンチマークにわたる閉鎖ソースとより大きなオープンソースLLMと同等のパフォーマンスを示しています。
ソースコードとデータセットは、さらなる搾取のために公開されています。

要約(オリジナル)

This paper presents a novel approach for unified retrieval-augmented generation (RAG) systems using the recent emerging large language model (LLM) agent concept. Specifically, Agent LLM, which utilizes LLM as fundamental controllers, has become a promising approach to enable the interpretability of RAG tasks, especially for complex reasoning question-answering systems (e.g., multi-hop queries). Nonetheless, previous works mainly focus on solving RAG systems with either single-hop or multi-hop approaches separately, which limits the application of those approaches to real-world applications. In this study, we propose a trainable agent framework called Agent-UniRAG for unified retrieval-augmented LLM systems, which enhances the effectiveness and interpretability of RAG systems. The main idea is to design an LLM agent framework to solve RAG tasks step-by-step based on the complexity of the inputs, simultaneously including single-hop and multi-hop queries in an end-to-end manner. Furthermore, we introduce SynAgent-RAG, a synthetic dataset to enable the proposed agent framework for small open-source LLMs (e.g., Llama-3-8B). The results show comparable performances with closed-source and larger open-source LLMs across various RAG benchmarks. Our source code and dataset are publicly available for further exploitation.

arxiv情報

著者 Hoang Pham,Thuy-Duong Nguyen,Khac-Hoai Nam Bui
発行日 2025-05-29 01:52:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.DB, cs.IR パーマリンク