A Survey on Hallucination in Large Language Models: Principles, Taxonomy, Challenges, and Open Questions

要約

大規模言語モデル (LLM) の出現は、自然言語処理 (NLP) における重要な進歩を示し、情報取得におけるパラダイム シフトを促進しました。
それにもかかわらず、LLM は幻覚を起こしやすく、もっともらしいが事実と異なるコンテンツを生成します。
この現象は、現実世界の情報検索 (IR) システムにおける LLM の信頼性について重大な懸念を引き起こしており、そのような幻覚を検出して軽減するための集中的な研究が注目されています。
LLM に固有の無制限の汎用特性を考慮すると、LLM 幻覚は、以前のタスク固有のモデルとは異なる明確な課題を提示します。
この相違は、LLM 幻覚の最近の進歩についての微妙な理解と包括的な概要の緊急性を浮き彫りにしています。
この調査では、LLM 時代の幻覚の革新的な分類から始めて、次に幻覚に寄与する要因を掘り下げます。
続いて、幻覚検出方法とベンチマークの徹底的な概要を紹介します。
その後、私たちの議論は、LLM 幻覚を軽減するための代表的な方法論に移ります。
さらに、幻覚と戦う際に検索拡張 LLM が直面している現在の制限を掘り下げ、より堅牢な IR システムを開発するための洞察を提供します。
最後に、大規模な視覚言語モデルにおける幻覚や LLM 幻覚における知識境界の理解など、LLM 幻覚に関する有望な研究の方向性を強調します。

要約(オリジナル)

The emergence of large language models (LLMs) has marked a significant breakthrough in natural language processing (NLP), fueling a paradigm shift in information acquisition. Nevertheless, LLMs are prone to hallucination, generating plausible yet nonfactual content. This phenomenon raises significant concerns over the reliability of LLMs in real-world information retrieval (IR) systems and has attracted intensive research to detect and mitigate such hallucinations. Given the open-ended general-purpose attributes inherent to LLMs, LLM hallucinations present distinct challenges that diverge from prior task-specific models. This divergence highlights the urgency for a nuanced understanding and comprehensive overview of recent advances in LLM hallucinations. In this survey, we begin with an innovative taxonomy of hallucination in the era of LLM and then delve into the factors contributing to hallucinations. Subsequently, we present a thorough overview of hallucination detection methods and benchmarks. Our discussion then transfers to representative methodologies for mitigating LLM hallucinations. Additionally, we delve into the current limitations faced by retrieval-augmented LLMs in combating hallucinations, offering insights for developing more robust IR systems. Finally, we highlight the promising research directions on LLM hallucinations, including hallucination in large vision-language models and understanding of knowledge boundaries in LLM hallucinations.

arxiv情報

著者 Lei Huang,Weijiang Yu,Weitao Ma,Weihong Zhong,Zhangyin Feng,Haotian Wang,Qianglong Chen,Weihua Peng,Xiaocheng Feng,Bing Qin,Ting Liu
発行日 2024-11-19 12:42:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク