要約
Large Language Model (LLM) の出現により、ユーザーが情報にアクセスする方法に革命が起こり、従来の検索エンジンから LLM との直接的な質問と回答の対話に移行しました。
しかし、LLM の普及により、幻覚として知られる重大な課題が明らかになりました。LLM は、一貫性はあるものの、事実に基づいて不正確な応答を生成します。
この幻覚現象は、LLM に基づく情報検索システムに対するユーザーの不信感につながりました。
この課題に取り組むために、この論文では、LLM の幻覚を検出および軽減する新しい方法として、幻覚検出 (DRAD) に基づく動的検索拡張を提案します。
DRAD は、リアルタイムの幻覚検出に基づいて検索プロセスを動的に適応させることで、従来の検索拡張を改善します。
これは、外部モデルを使用せずに潜在的な幻覚を特定するリアルタイム幻覚検出 (RHD) と、外部知識を使用してこれらのエラーを修正する外部知識に基づく自己修正 (SEK) の 2 つの主要コンポーネントを備えています。
実験結果は、DRAD が LLM の幻覚の検出と軽減の両方において優れたパフォーマンスを示すことを示しています。
私たちのコードとデータはすべて、https://github.com/oneal2000/EntityHallucination でオープンソース化されています。
要約(オリジナル)
The emergence of Large Language Models (LLMs) has revolutionized how users access information, shifting from traditional search engines to direct question-and-answer interactions with LLMs. However, the widespread adoption of LLMs has revealed a significant challenge known as hallucination, wherein LLMs generate coherent yet factually inaccurate responses. This hallucination phenomenon has led to users’ distrust in information retrieval systems based on LLMs. To tackle this challenge, this paper proposes Dynamic Retrieval Augmentation based on hallucination Detection (DRAD) as a novel method to detect and mitigate hallucinations in LLMs. DRAD improves upon traditional retrieval augmentation by dynamically adapting the retrieval process based on real-time hallucination detection. It features two main components: Real-time Hallucination Detection (RHD) for identifying potential hallucinations without external models, and Self-correction based on External Knowledge (SEK) for correcting these errors using external knowledge. Experiment results show that DRAD demonstrates superior performance in both detecting and mitigating hallucinations in LLMs. All of our code and data are open-sourced at https://github.com/oneal2000/EntityHallucination.
arxiv情報
著者 | Weihang Su,Yichen Tang,Qingyao Ai,Changyue Wang,Zhijing Wu,Yiqun Liu |
発行日 | 2024-07-22 12:28:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google