Dehallucinating Parallel Context Extension for Retrieval-Augmented Generation

要約

大規模言語モデル (LLM) は、検索拡張生成 (RAG) が統合されているにもかかわらず、幻覚的な情報を生成する可能性があります。
並列コンテキスト拡張 (PCE) は、並列 (順序付けされていない) コンテキストを効果的に統合しようとする一連の研究ですが、RAG シナリオに適応すると依然として幻覚に悩まされます。
この論文では、コンテキストを意識したネガティブトレーニングと情報調整された集約によって幻覚の問題を軽減する DePaC (Dehallucinating Parallel Context Extension) を提案します。
DePaC は、事実の捏造 (つまり、LLM が文脈によってサポートされていない主張を提示する) と事実の省略 (つまり、LLM が文脈によってサポートされる主張を提示できない) という 2 つのタイプの文脈内幻覚を軽減するように設計されています。
具体的には、(1) 事実の捏造については、ネガティブな監視で LLM を微調整するコンテキスト認識型のネガティブ トレーニングを適用します。これにより、コンテキストが質問に関連していない場合には、LLM が回答を拒否するように明示的に誘導されます。
(2) ファクト省略については、コンテキストからの情報増分が大きいコンテキスト ウィンドウを優先する、情報調整された集約を提案します。
9 つの RAG タスクに関する実験結果は、DePaC が 2 種類の幻覚を大幅に軽減し、これらのタスクで一貫してより良いパフォーマンスを達成することを示しています。

要約(オリジナル)

Large language models (LLMs) are susceptible to generating hallucinated information, despite the integration of retrieval-augmented generation (RAG). Parallel context extension (PCE) is a line of research attempting to effectively integrating parallel (unordered) contexts, while it still suffers from hallucinations when adapted to RAG scenarios. In this paper, we propose DePaC (Dehallucinating Parallel Context Extension), which alleviates the hallucination problem with context-aware negative training and information-calibrated aggregation. DePaC is designed to alleviate two types of in-context hallucination: fact fabrication (i.e., LLMs present claims that are not supported by the contexts) and fact omission (i.e., LLMs fail to present claims that can be supported by the contexts). Specifically, (1) for fact fabrication, we apply the context-aware negative training that fine-tunes the LLMs with negative supervisions, thus explicitly guiding the LLMs to refuse to answer when contexts are not related to questions; (2) for fact omission, we propose the information-calibrated aggregation which prioritizes context windows with higher information increment from their contexts. The experimental results on nine RAG tasks demonstrate that DePaC significantly alleviates the two types of hallucination and consistently achieves better performances on these tasks.

arxiv情報

著者 Zexiong Ma,Shengnan An,Zeqi Lin,Yanzhen Zou,Jian-Guang Lou,Bing Xie
発行日 2024-12-19 14:37:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク