Uncertainty-Aware Attention Heads: Efficient Unsupervised Uncertainty Quantification for LLMs

要約

大規模な言語モデル(LLM)は印象的な流encyさを示しますが、多くの場合、「幻覚」として知られる重要なエラーを生成します。
不確実性定量化(UQ)メソッドは、この基本的な欠点に対処するための有望なツールです。
しかし、既存のUQメソッドは、高い計算オーバーヘッドや監視された学習への依存などの課題に直面しています。
ここでは、このギャップを埋めることを目指しています。
特に、RAUQ(再発性の注意ベースの不確実性の定量化)を提案します。これは、変圧器の固有の注意パターンを活用して幻覚を効率的に検出する監視されていないアプローチです。
注意の重みを分析することにより、独特のパターンを特定しました。特定の「不確実な」ヘッドについて、誤った世代の間に前のトークンに注意を向けることが体系的に観察されます。
RAUQは、このようなヘッドを自動的に選択し、注意力とトークンレベルの自信を再発し、単一のフォワードパスでシーケンスレベルの不確実性スコアを計算します。
4 LLMと12の質問応答、要約、および翻訳タスクにわたる実験は、RAUQが優れた結果をもたらし、最小限の計算オーバーヘッド(<1%レイテンシ)を使用して最先端のUQメソッドを上回ることを示しています。 さらに、タスク固有のラベルも慎重なハイパーパラメーターチューニングも必要ありません。ホワイトボックスLLMでのプラグアンドプレイリアルタイムの幻覚検出を提供します。

要約(オリジナル)

Large language models (LLMs) exhibit impressive fluency, but often produce critical errors known as ‘hallucinations’. Uncertainty quantification (UQ) methods are a promising tool for coping with this fundamental shortcoming. Yet, existing UQ methods face challenges such as high computational overhead or reliance on supervised learning. Here, we aim to bridge this gap. In particular, we propose RAUQ (Recurrent Attention-based Uncertainty Quantification), an unsupervised approach that leverages intrinsic attention patterns in transformers to detect hallucinations efficiently. By analyzing attention weights, we identified a peculiar pattern: drops in attention to preceding tokens are systematically observed during incorrect generations for certain ‘uncertainty-aware’ heads. RAUQ automatically selects such heads, recurrently aggregates their attention weights and token-level confidences, and computes sequence-level uncertainty scores in a single forward pass. Experiments across 4 LLMs and 12 question answering, summarization, and translation tasks demonstrate that RAUQ yields excellent results, outperforming state-of-the-art UQ methods using minimal computational overhead (<1% latency). Moreover, it requires no task-specific labels and no careful hyperparameter tuning, offering plug-and-play real-time hallucination detection in white-box LLMs.

arxiv情報

著者 Artem Vazhentsev,Lyudmila Rvanova,Gleb Kuzmin,Ekaterina Fadeeva,Ivan Lazichny,Alexander Panchenko,Maxim Panov,Timothy Baldwin,Mrinmaya Sachan,Preslav Nakov,Artem Shelmanov
発行日 2025-05-26 14:28:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク