LLM Hallucination Reasoning with Zero-shot Knowledge Test

要約

LLM が時々不誠実なテキストを生成する LLM 幻覚は、実際の応用に重大な課題をもたらします。
既存の検出方法のほとんどは、外部の知識、LLM 微調整、または幻覚ラベル付きデータセットに依存しており、検出パフォーマンスの向上に重要な異なる種類の幻覚を区別していません。
新しいタスク、Hallucination Reasoning を導入します。これは、LLM で生成されたテキストを、整列、不整列、捏造の 3 つのカテゴリのいずれかに分類します。
私たちの新しいゼロショット手法は、LLM が特定のプロンプトとテキストについて十分な知識を持っているかどうかを評価します。
新しいデータセットに対して行われた実験は、幻覚推論における私たちの方法の有効性を実証し、検出パフォーマンスを向上させるためのその重要性を強調しています。

要約(オリジナル)

LLM hallucination, where LLMs occasionally generate unfaithful text, poses significant challenges for their practical applications. Most existing detection methods rely on external knowledge, LLM fine-tuning, or hallucination-labeled datasets, and they do not distinguish between different types of hallucinations, which are crucial for improving detection performance. We introduce a new task, Hallucination Reasoning, which classifies LLM-generated text into one of three categories: aligned, misaligned, and fabricated. Our novel zero-shot method assesses whether LLM has enough knowledge about a given prompt and text. Our experiments conducted on new datasets demonstrate the effectiveness of our method in hallucination reasoning and underscore its importance for enhancing detection performance.

arxiv情報

著者 Seongmin Lee,Hsiang Hsu,Chun-Fu Chen
発行日 2024-11-14 18:55:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク