Auto-GDA: Automatic Domain Adaptation for Efficient Grounding Verification in Retrieval-Augmented Generation

要約

検索された生成(RAG)は、大規模な言語モデル(LLM)出力の事実性を高めることが示されていますが、LLMは依然として幻覚に苦しみ、誤った情報または無関係な情報を生成します。
一般的な検出戦略では、LLMに再びその応答が検索された証拠に基づいているかどうかを評価することが含まれますが、このアプローチには費用がかかります。
あるいは、効率的な接地検証のための軽量の自然言語推論(NLI)モデルを推論時に使用できます。
既存の事前に訓練されたNLIモデルは潜在的なソリューションを提供しますが、現実的なRAG入力のより大きなモデルと比較して、そのパフォーマンスはサブラー質のままです。
RAG入力は、NLIモデルのトレーニングに使用されるほとんどのデータセットよりも複雑であり、基礎となる知識ベースに特有の特性を持ち、特定のターゲットドメインへのNLIモデルの適応が必要です。
さらに、ターゲットドメインにラベル付きインスタンスがないため、たとえば、微調整を通じて、監視されたドメインの適応を実現します。
これらの課題に対処するために、自動生成ドメイン適応(AUTO-GDA)を導入します。
私たちのフレームワークは、合成データ生成を通じて監視されていないドメインの適応を可能にします。
手作りのフィルタリング戦略と増強戦略に依存する以前の方法とは異なり、Auto-GDAは、効率の低い教師モデルからの弱いラベルと個別の最適化からの弱いラベルを使用して、最も有望な増強サンプルを選択して、生成されたサンプルの品質を継続的に改善するための反復プロセスを採用しています。
実験結果は、私たちのアプローチの有効性を実証し、Auto-GDAを使用した合成データに微調整されたモデルで、多くの場合、教師モデルのパフォーマンスを上回り、計算コストの10%でLLMSのパフォーマンスレベルに到達します。

要約(オリジナル)

While retrieval-augmented generation (RAG) has been shown to enhance factuality of large language model (LLM) outputs, LLMs still suffer from hallucination, generating incorrect or irrelevant information. A common detection strategy involves prompting the LLM again to assess whether its response is grounded in the retrieved evidence, but this approach is costly. Alternatively, lightweight natural language inference (NLI) models for efficient grounding verification can be used at inference time. While existing pre-trained NLI models offer potential solutions, their performance remains subpar compared to larger models on realistic RAG inputs. RAG inputs are more complex than most datasets used for training NLI models and have characteristics specific to the underlying knowledge base, requiring adaptation of the NLI models to a specific target domain. Additionally, the lack of labeled instances in the target domain makes supervised domain adaptation, e.g., through fine-tuning, infeasible. To address these challenges, we introduce Automatic Generative Domain Adaptation (Auto-GDA). Our framework enables unsupervised domain adaptation through synthetic data generation. Unlike previous methods that rely on handcrafted filtering and augmentation strategies, Auto-GDA employs an iterative process to continuously improve the quality of generated samples using weak labels from less efficient teacher models and discrete optimization to select the most promising augmented samples. Experimental results demonstrate the effectiveness of our approach, with models fine-tuned on synthetic data using Auto-GDA often surpassing the performance of the teacher model and reaching the performance level of LLMs at 10% of their computational cost.

arxiv情報

著者 Tobias Leemann,Periklis Petridis,Giuseppe Vietri,Dionysis Manousakas,Aaron Roth,Sergul Aydore
発行日 2025-03-14 17:27:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク