Random-Set Large Language Models

要約

大規模な言語モデル(LLM)は、クエリに対する非常に高品質のテストと応答を生成することが知られています。
しかし、この生成されたテキストをどれだけ信頼できますか?
この論文では、LLMSにおける不確実性の定量化の問題を研究します。
古典的なLLMのように確率ベクトルではなく、トークン空間上の有限ランダムセット(信念関数)を予測する新しいランダムセット大型言語モデル(RSLLM)アプローチを提案します。
非常に効率的に許可するために、階層的クラスタリングに基づいた方法論を提示して、トークンのすべての可能なコレクションを使用するのではなく、信念予測が定義されているトークンの「焦点」サブセットの予算を抽出および使用して使用し、方法をスケーラブルでありながら効果的にします。
RS-LLMSは、予測された信念関数に関連する信用セットのサイズを介して、その生成プロセスで誘発された認識論的不確実性を、そのトレーニングセットのサイズと多様性によってエンコードします。
提案されたアプローチは、LLAMA2-7B、MISTRAL-7B、およびPHI-2モデルを使用してCOQAおよびOBQAデータセットで評価され、回答の正確性の観点から両方のデータセットの標準モデルを上回ることが示されていると同時に、予測の2番目のレベルの不確実性を推定し、幻覚を検出する能力を提供することが示されています。

要約(オリジナル)

Large Language Models (LLMs) are known to produce very high-quality tests and responses to our queries. But how much can we trust this generated text? In this paper, we study the problem of uncertainty quantification in LLMs. We propose a novel Random-Set Large Language Model (RSLLM) approach which predicts finite random sets (belief functions) over the token space, rather than probability vectors as in classical LLMs. In order to allow so efficiently, we also present a methodology based on hierarchical clustering to extract and use a budget of ‘focal’ subsets of tokens upon which the belief prediction is defined, rather than using all possible collections of tokens, making the method scalable yet effective. RS-LLMs encode the epistemic uncertainty induced in their generation process by the size and diversity of its training set via the size of the credal sets associated with the predicted belief functions. The proposed approach is evaluated on CoQA and OBQA datasets using Llama2-7b, Mistral-7b and Phi-2 models and is shown to outperform the standard model in both datasets in terms of correctness of answer while also showing potential in estimating the second level uncertainty in its predictions and providing the capability to detect when its hallucinating.

arxiv情報

著者 Muhammad Mubashar,Shireen Kudukkil Manchingal,Fabio Cuzzolin
発行日 2025-04-25 05:25:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG, I.2.7 パーマリンク