The Pitfalls of Defining Hallucination

要約

自然言語生成 (NLG) と大規模言語モデル (LLM) は目覚ましい進歩を遂げているにもかかわらず、研究者は NLG 評価の重要な側面についてまだ不明瞭です。
この主張を実証するために、データテキスト NLG における幻覚と省略の現在の分類を調査し、これらの分類を論理に基づいて統合することを提案します。
最後に、幻覚に関する現在の考え方に残っているいくつかの限界を強調し、LLM への影響について議論します。

要約(オリジナル)

Despite impressive advances in Natural Language Generation (NLG) and Large Language Models (LLMs), researchers are still unclear about important aspects of NLG evaluation. To substantiate this claim, I examine current classifications of hallucination and omission in Data-text NLG, and I propose a logic-based synthesis of these classfications. I conclude by highlighting some remaining limitations of all current thinking about hallucination and by discussing implications for LLMs.

arxiv情報

著者 Kees van Deemter
発行日 2024-01-15 18:53:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク