要約
LLMは、虚偽の主張をするときにも断定的な言語スタイルを採用することがよくあります。
このような「自信過剰幻覚」 ‘ユーザーを誤解させ、信頼を侵食します。
したがって、言語で表現する能力を達成することは、主張に関する実際の不確実性の程度を非常に重要です。
「言葉による不確実性」は、LLMSの表現空間における単一の線形特徴によって支配されていることがわかり、これがモデルの実際の「セマンティック不確実性」と中程度の相関があることを示しています。
この洞察を適用し、(1)意味的不確実性と言葉による不確実性の不一致は、セマンティックの不確実性だけよりも幻覚のより良い予測因子であり、(2)推論時間で口頭の不確実性に介入し、短い形式の回答で幻覚を減らし、平均相対的な減少を達成することができることを示します。
要約(オリジナル)
LLMs often adopt an assertive language style also when making false claims. Such “overconfident hallucinations” mislead users and erode trust. Achieving the ability to express in language the actual degree of uncertainty around a claim is therefore of great importance. We find that “verbal uncertainty” is governed by a single linear feature in the representation space of LLMs, and show that this has only moderate correlation with the actual “semantic uncertainty” of the model. We apply this insight and show that (1) the mismatch between semantic and verbal uncertainty is a better predictor of hallucinations than semantic uncertainty alone and (2) we can intervene on verbal uncertainty at inference time and reduce hallucinations on short-form answers, achieving an average relative reduction of 32%.
arxiv情報
著者 | Ziwei Ji,Lei Yu,Yeskendir Koishekenov,Yejin Bang,Anthony Hartshorn,Alan Schelten,Cheng Zhang,Pascale Fung,Nicola Cancedda |
発行日 | 2025-03-18 17:51:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google