要約
大規模言語モデル (LLM) は、情報探索タスクや意思決定タスクにますます採用されています。
LLM はその幅広い用途にもかかわらず、現実世界の事実と矛盾する情報を生成する傾向があり、その説得力のあるスタイルにより、これらの不正確な情報が自信を持って説得力があるように見えます。
その結果、エンドユーザーは、LLM によって表現される信頼性と予測の精度を一貫して一致させるのに苦労し、多くの場合、すべての出力を盲目的に信頼するか、その信頼性を完全に無視することになります。
この研究では、不確実性の言語表現を生成するモデルを開発する方法として、不確実性が増大した予測に対する教師あり微調整を検討します。
具体的には、事前トレーニングされたモデルの調整を測定し、次に言語モデルを微調整して、不確実性の調整された言語表現を生成します。
さまざまな質問応答データセットの実験を通じて、LLM が予測の評価において適切に調整されていること、およびモデル自身の信頼度に基づいた教師あり微調整により、特に単一要求の回答の場合、適切に調整された不確実性の表現が得られることを実証しました。
要約(オリジナル)
Large language models (LLMs) are increasingly employed in information-seeking and decision-making tasks. Despite their broad utility, LLMs tend to generate information that conflicts with real-world facts, and their persuasive style can make these inaccuracies appear confident and convincing. As a result, end-users struggle to consistently align the confidence expressed by LLMs with the accuracy of their predictions, often leading to either blind trust in all outputs or a complete disregard for their reliability. In this work, we explore supervised finetuning on uncertainty-augmented predictions as a method to develop models that produce linguistic expressions of uncertainty. Specifically, we measure the calibration of pre-trained models and then fine-tune language models to generate calibrated linguistic expressions of uncertainty. Through experiments on various question-answering datasets, we demonstrate that LLMs are well-calibrated in assessing their predictions, and supervised finetuning based on the model’s own confidence leads to well-calibrated expressions of uncertainty, particularly for single-claim answers.
arxiv情報
著者 | Arslan Chaudhry,Sridhar Thiagarajan,Dilan Gorur |
発行日 | 2024-09-18 17:52:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google