Zero-resource Hallucination Detection for Text Generation via Graph-based Contextual Knowledge Triples Modeling

要約

LLM は優れたパフォーマンスを発揮しますが、幻覚に悩まされます。
幻覚の検出に関するほとんどの研究は、忠実性を確認しやすい、短くて具体的な正解が得られる質問に焦点を当てています。
自由回答によるテキスト生成の幻覚検出はさらに困難です。
研究者の中には、外部の知識を利用して、生成されたテキスト内の幻覚を検出する人もいますが、特定のシナリオ用の外部リソースにアクセスするのは困難です。
外部リソースを使用せずに長いテキスト内の幻覚を検出するための最近の研究では、複数のサンプル出力間の一貫性比較が行われています。
長いテキストを処理するために、研究者は長いテキストを複数の事実に分割し、事実の各ペアの一貫性を個別に比較します。
ただし、これらの方法では、(1) 複数の事実間の整合性をほとんど達成できません。
(2) 複数の文脈上の事実間の依存関係を見落とす。
この論文では、テキスト生成のためのグラフベースのコンテキスト認識 (GCA) 幻覚検出を提案します。これは、知識事実を調整し、一貫性比較においてコンテキスト知識トリプル間の依存関係を考慮します。
特に、複数の事実を整合させるために、トリプル指向の応答セグメント化を実行して、複数の知識トリプルを抽出します。
コンテキスト知識トリプル (ファクト) 間の依存関係をモデル化するために、コンテキスト トリプルをグラフに構築し、RGCN を介したメッセージ パッシングおよび集約を介してトリプルの相互作用を強化します。
長いテキストにおける知識トリプルの省略を避けるために、知識トリプルを再構築することによる LLM ベースの逆検証を実行します。
実験では、私たちのモデルが幻覚検出を強化し、すべてのベースラインを上回っていることが示されています。

要約(オリジナル)

LLMs obtain remarkable performance but suffer from hallucinations. Most research on detecting hallucination focuses on the questions with short and concrete correct answers that are easy to check the faithfulness. Hallucination detections for text generation with open-ended answers are more challenging. Some researchers use external knowledge to detect hallucinations in generated texts, but external resources for specific scenarios are hard to access. Recent studies on detecting hallucinations in long text without external resources conduct consistency comparison among multiple sampled outputs. To handle long texts, researchers split long texts into multiple facts and individually compare the consistency of each pairs of facts. However, these methods (1) hardly achieve alignment among multiple facts; (2) overlook dependencies between multiple contextual facts. In this paper, we propose a graph-based context-aware (GCA) hallucination detection for text generations, which aligns knowledge facts and considers the dependencies between contextual knowledge triples in consistency comparison. Particularly, to align multiple facts, we conduct a triple-oriented response segmentation to extract multiple knowledge triples. To model dependencies among contextual knowledge triple (facts), we construct contextual triple into a graph and enhance triples’ interactions via message passing and aggregating via RGCN. To avoid the omission of knowledge triples in long text, we conduct a LLM-based reverse verification via reconstructing the knowledge triples. Experiments show that our model enhances hallucination detection and excels all baselines.

arxiv情報

著者 Xinyue Fang,Zhen Huang,Zhiliang Tian,Minghui Fang,Ziyi Pan,Quntian Fang,Zhihua Wen,Hengyue Pan,Dongsheng Li
発行日 2024-09-18 05:42:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク