Improve Decoding Factuality by Token-wise Cross Layer Entropy of Large Language Models

要約

印象的な能力にもかかわらず、大規模な言語モデル(LLM)は、正しい知識を持っている場合でも、不正確または製造されたコンテンツを生成するという幻覚の問題にしばしば苦労しています。
この論文では、隠された状態の予測の変化と出力の事実性との相関の調査を、より深いトークンごとのレベルに拡張します。
洞察に基づいて、クロスレイヤーエントロピー強化デコード(END)を提案します。これは、追加のトレーニングを必要とせずに幻覚を軽減するデコード方法です。
終了は、レイヤー間の内部確率の変化をレバレッジして、各候補トークンに必要な事実の知識を個別に定量化し、最終的な予測分布を調整して、より高い事実性でトークンに優先順位を付けます。
幻覚とQAベンチマークの両方での実験は、堅牢なQA精度を維持しながら、生成されたコンテンツの真実性と情報性を大幅に向上させることを示しています。
さらに、私たちの仕事は、固有の知識と出力の事実性との相関関係を理解することに関するより深い視点を提供します。

要約(オリジナル)

Despite their impressive capacities, Large language models (LLMs) often struggle with the hallucination issue of generating inaccurate or fabricated content even when they possess correct knowledge. In this paper, we extend the exploration of the correlation between hidden-state prediction changes and output factuality into a deeper, token-wise level. Based on the insights , we propose cross-layer Entropy eNhanced Decoding (END), a decoding method that mitigates hallucinations without requiring extra training. END leverages inner probability changes across layers to individually quantify the factual knowledge required for each candidate token, and adjusts the final predicting distribution to prioritize tokens with higher factuality. Experiments on both hallucination and QA benchmarks demonstrate that END significantly enhances the truthfulness and informativeness of generated content while maintaining robust QA accuracy. Moreover, our work provides a deeper perspective on understanding the correlations between inherent knowledge and output factuality.

arxiv情報

著者 Jialiang Wu,Yi Shen,Sijia Liu,Yi Tang,Sen Song,Xiaoyi Wang,Longjun Cai
発行日 2025-02-05 14:19:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク