要約
この論文では、最終的な答えを生成する前に、関連する情報を段階的に取得して推論する o1 のような RAG モデルをトレーニングするためのアプローチを紹介します。
従来の RAG メソッドは通常、生成プロセスの前に 1 つの検索ステップを実行するため、不完全な検索結果が原因で複雑なクエリに対処する有効性が制限されます。
対照的に、私たちが提案する手法である CoRAG (Chain-of-Retrieval Augmented Generation) を使用すると、モデルは進化する状態に基づいてクエリを動的に再定式化できます。
CoRAG を効果的にトレーニングするために、拒否サンプリングを利用して中間検索チェーンを自動的に生成し、それによって最終的な正しい答えのみを提供する既存の RAG データセットを強化します。
テスト時には、サンプリングされた検索チェーンの長さと数を制御することで、モデルのテスト時の計算をスケールするためのさまざまなデコード戦略を提案します。
複数のベンチマークにわたる実験結果により、特にマルチホップ質問応答タスクにおいて CoRAG の有効性が検証され、強力なベースラインと比較して EM スコアが 10 ポイント以上向上していることが観察されました。
KILT ベンチマークでは、CoRAG は知識集約型のさまざまなタスクにわたって新しい最先端のパフォーマンスを確立します。
さらに、CoRAG のスケーリング動作を理解するための包括的な分析を提供し、事実に基づいた根拠のある基礎モデルの開発を目的とした将来の研究の基礎を築きます。
要約(オリジナル)
This paper introduces an approach for training o1-like RAG models that retrieve and reason over relevant information step by step before generating the final answer. Conventional RAG methods usually perform a single retrieval step before the generation process, which limits their effectiveness in addressing complex queries due to imperfect retrieval results. In contrast, our proposed method, CoRAG (Chain-of-Retrieval Augmented Generation), allows the model to dynamically reformulate the query based on the evolving state. To train CoRAG effectively, we utilize rejection sampling to automatically generate intermediate retrieval chains, thereby augmenting existing RAG datasets that only provide the correct final answer. At test time, we propose various decoding strategies to scale the model’s test-time compute by controlling the length and number of sampled retrieval chains. Experimental results across multiple benchmarks validate the efficacy of CoRAG, particularly in multi-hop question answering tasks, where we observe more than 10 points improvement in EM score compared to strong baselines. On the KILT benchmark, CoRAG establishes a new state-of-the-art performance across a diverse range of knowledge-intensive tasks. Furthermore, we offer comprehensive analyses to understand the scaling behavior of CoRAG, laying the groundwork for future research aimed at developing factual and grounded foundation models.
arxiv情報
著者 | Liang Wang,Haonan Chen,Nan Yang,Xiaolong Huang,Zhicheng Dou,Furu Wei |
発行日 | 2025-01-24 09:12:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google