Quantifying Uncertainty in Answers from any Language Model via Intrinsic and Extrinsic Confidence Assessment

要約

BSDetector を紹介します。これは、生成された出力に対する数値の信頼スコアを推定することにより、事前トレーニング済みの大規模言語モデルから不適切な推測的な回答を検出するためのメソッドです。
私たちの不確実性定量化手法は、ブラックボックス API 経由でのみアクセス可能な LLM に対して機能し、内在的および外部の信頼性評価を組み合わせて、特定のプロンプトに対する LLM の応答に対する単一の信頼性推定値を作成します。
私たちの方法は非常に一般的であり、現在利用可能な最良の LLM (トレーニング データはまだ不明) のすべてに適用できます。
追加の計算を少し費やすことで、LLM API のユーザーは、通常と同じ応答を得ることができるとともに、この応答を信頼しないように警告する信頼度推定値も取得できるようになります。
クローズドフォームとオープンフォームの両方の質問と回答のベンチマークでの実験により、BSDetector が代替の不確実性推定手順 (GPT-3 と ChatGPT の両方) よりも不正確な LLM 応答をより正確に識別することが明らかになりました。
LLM から複数の応答をサンプリングし、最も高い信頼スコアを持つ応答を考慮することで、追加のトレーニング手順を行わずに、同じ LLM からより正確な応答をさらに取得できます。

要約(オリジナル)

We introduce BSDetector, a method for detecting bad and speculative answers from a pretrained Large Language Model by estimating a numeric confidence score for any output it generated. Our uncertainty quantification technique works for any LLM accessible only via a black-box API, and combines intrinsic and extrinsic assessments of confidence into a single trustworthiness estimate for any LLM response to a given prompt. Our method is extremely general and can applied to all of the best LLMs available today (whose training data remains unknown). By expending a bit of extra computation, users of any LLM API can now get the same response as they would ordinarily, as well as a confidence estimate that caution when not to trust this response. Experiments on both closed and open-form Question-Answer benchmarks reveal that BSDetector more accurately identifies incorrect LLM responses than alternative uncertainty estimation procedures (for both GPT-3 and ChatGPT). By sampling multiple responses from the LLM and considering the one with the highest confidence score, we can additionally obtain more accurate responses from the same LLM, without any extra training steps.

arxiv情報

著者 Jiuhai Chen,Jonas Mueller
発行日 2023-08-30 17:53:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク