Reconfidencing LLMs from the Grouping Loss Perspective

要約

ChatGPT や LLaMA などの大規模言語モデル (LLM) は、自信に満ちた口調で幻覚のような答えを生成する可能性があります。
信頼スコアを導き出し、校正する取り組みは有用であることが証明されていますが、最近の調査結果では、不確実性の制御には校正以上のものを必要とすることが示されています。つまり、グループ化損失の影響により、予測スコアが実際の事後確率から大幅に逸脱する可能性があります。
この研究では、Mistral と LLaMA の回答に与えられる信頼度スコアを評価するために、知識ベースから派生した新しい評価データセットを構築します。
実験によると、彼らは自信過剰になる傾向があります。
さらに、質問に含まれる人の国籍に応じて、彼らは一部の回答に対して他の回答よりも自信を持っていることがわかります。 \emph{eg}
不確実性の定量化理論では、これはグループ化損失です。
これに対処するために、LLM を再信頼し、キャリブレーションだけでなくグループ化損失もキャンセルするソリューションを提案します。
再信頼プロセス後の LLM は、応答の精度と信頼性の整合性が向上していることを示します。

要約(オリジナル)

Large Language Models (LLMs), including ChatGPT and LLaMA, are susceptible to generating hallucinated answers in a confident tone. While efforts to elicit and calibrate confidence scores have proven useful, recent findings show that controlling uncertainty must go beyond calibration: predicted scores may deviate significantly from the actual posterior probabilities due to the impact of grouping loss. In this work, we construct a new evaluation dataset derived from a knowledge base to assess confidence scores given to answers of Mistral and LLaMA. Experiments show that they tend to be overconfident. Further, we show that they are more overconfident on some answers than others, \emph{eg} depending on the nationality of the person in the query. In uncertainty-quantification theory, this is grouping loss. To address this, we propose a solution to reconfidence LLMs, canceling not only calibration but also grouping loss. The LLMs, after the reconfidencing process, indicate improved confidence alignment with the accuracy of their responses.

arxiv情報

著者 Lihu Chen,Alexandre Perez-Lebel,Fabian M. Suchanek,Gaël Varoquaux
発行日 2024-02-07 15:40:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク