Dynamic Attention-Guided Context Decoding for Mitigating Context Faithfulness Hallucinations in Large Language Models

要約

大規模言語モデル(LLM)は、文脈の利用が不十分で出力の不確実性が高いために、出力が検索された情報から乖離する文脈忠実幻覚に悩まされることが多い。我々の不確実性評価実験により、高い不確実性と幻覚の間に強い相関があることが明らかになった。我々は、注意メカニズムが文脈の利用を示す信号を符号化するという仮説を立て、プロービング分析によって検証した。これらの洞察に基づき、我々は動的注意誘導文脈復号化(Dynamic Attention-Guided Context Decoding: DAGCD)を提案する。DAGCDは、シングルパス復号化プロセスにおいて注意分布と不確実性信号を統合する軽量フレームワークである。QAデータセットを用いた実験により、計算効率を維持しつつ、忠実性と頑健性の大幅な改善を達成し、DAGCDの有効性を実証する。

要約(オリジナル)

Large language models (LLMs) often suffer from context faithfulness hallucinations, where outputs deviate from retrieved information due to insufficient context utilization and high output uncertainty. Our uncertainty evaluation experiments reveal a strong correlation between high uncertainty and hallucinations. We hypothesize that attention mechanisms encode signals indicative of contextual utilization, validated through probing analysis. Based on these insights, we propose Dynamic Attention-Guided Context Decoding (DAGCD), a lightweight framework that integrates attention distributions and uncertainty signals in a single-pass decoding process. Experiments across QA datasets demonstrate DAGCD’s effectiveness, achieving significant improvements in faithfulness and robustness while maintaining computational efficiency.

arxiv情報

著者 Yanwen Huang,Yong Zhang,Ning Cheng,Zhitao Li,Shaojun Wang,Jing Xiao
発行日 2025-01-02 05:07:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL, cs.LG パーマリンク