A Survey of Hallucination in Large Foundation Models

要約

基礎モデル (FM) における幻覚とは、事実から逸脱したコンテンツ、または捏造された情報を含むコンテンツの生成を指します。
この調査論文は、特に「大規模な」基礎モデル (LFM) に焦点を当てて、幻覚の問題を特定、解明し、取り組むことを目的とした最近の取り組みの広範な概要を提供します。
この論文では、LFM に特有のさまざまな種類の幻覚現象を分類し、幻覚の程度を評価するための評価基準を確立します。
また、LFM における幻覚を軽減するための既存の戦略を検証し、この分野における将来の研究の潜在的な方向性についても議論します。
基本的に、この論文は、LFM における幻覚に関連する課題と解決策の包括的な検討を提供します。

要約(オリジナル)

Hallucination in a foundation model (FM) refers to the generation of content that strays from factual reality or includes fabricated information. This survey paper provides an extensive overview of recent efforts that aim to identify, elucidate, and tackle the problem of hallucination, with a particular focus on “Large” Foundation Models (LFMs). The paper classifies various types of hallucination phenomena that are specific to LFMs and establishes evaluation criteria for assessing the extent of hallucination. It also examines existing strategies for mitigating hallucination in LFMs and discusses potential directions for future research in this area. Essentially, the paper offers a comprehensive examination of the challenges and solutions related to hallucination in LFMs.

arxiv情報

著者 Vipula Rawte,Amit Sheth,Amitava Das
発行日 2023-09-12 02:34:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.IR パーマリンク