Cognitive Mirage: A Review of Hallucinations in Large Language Models

要約

AI の分野で大規模な言語モデルが開発され続けるにつれて、テキスト生成システムは幻覚として知られる憂慮すべき現象の影響を受けやすくなっています。
この研究では、LLM の幻覚に関する最近の説得力のある洞察を要約します。
私たちは、さまざまなテキスト生成タスクからの幻覚の新しい分類法を提示し、理論的な洞察、検出方法、および改善アプローチを提供します。
これに基づいて、今後の研究の方向性を提案します。
私たちの貢献は 3 つあります。(1) テキスト生成タスクに現れる幻覚について、詳細かつ完全な分類法を提供します。
(2) LLM における幻覚の理論的分析を提供し、既存の検出および改善方法を提供します。
(3) 将来的に発展する可能性のあるいくつかの研究の方向性を提案します。
幻覚がコミュニティから大きな注目を集めているため、私たちは関連する研究の進捗状況について最新情報を維持していきます。

要約(オリジナル)

As large language models continue to develop in the field of AI, text generation systems are susceptible to a worrisome phenomenon known as hallucination. In this study, we summarize recent compelling insights into hallucinations in LLMs. We present a novel taxonomy of hallucinations from various text generation tasks, thus provide theoretical insights, detection methods and improvement approaches. Based on this, future research directions are proposed. Our contribution are threefold: (1) We provide a detailed and complete taxonomy for hallucinations appearing in text generation tasks; (2) We provide theoretical analyses of hallucinations in LLMs and provide existing detection and improvement methods; (3) We propose several research directions that can be developed in the future. As hallucinations garner significant attention from the community, we will maintain updates on relevant research progress.

arxiv情報

著者 Hongbin Ye,Tong Liu,Aijia Zhang,Wei Hua,Weiqiang Jia
発行日 2023-09-13 08:33:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク