要約
大規模な言語モデル(LLM)は意思決定に広く使用されていますが、特にヘルスケアのような重要なタスクでは、その信頼性は十分に確立されていません。
したがって、LLMSがどのように推論し、決定を下すかを理解することは、安全な展開にとって重要です。
このペーパーでは、LLMSによって生成された応答の不確実性が、入力プロンプトで提供される情報にどのように関連しているかを調査します。
LLMSが事前トレーニング中に潜在的な概念を推測することを学ぶという洞察を活用して、LLMSが応答を生成する方法を説明し、プロンプトと応答の不確実性の関係を理解するのに役立つプロンプト応答の概念モデルを提案します。
認識論の不確実性と同様に、プロンプトの情報が増加するにつれて不確実性が低下することを示します。
実際のデータセットに関する詳細な実験結果は、提案されたモデルを検証します。
要約(オリジナル)
Large language models (LLMs) are widely used in decision-making, but their reliability, especially in critical tasks like healthcare, is not well-established. Therefore, understanding how LLMs reason and make decisions is crucial for their safe deployment. This paper investigates how the uncertainty of responses generated by LLMs relates to the information provided in the input prompt. Leveraging the insight that LLMs learn to infer latent concepts during pretraining, we propose a prompt-response concept model that explains how LLMs generate responses and helps understand the relationship between prompts and response uncertainty. We show that the uncertainty decreases as the prompt’s informativeness increases, similar to epistemic uncertainty. Our detailed experimental results on real-world datasets validate our proposed model.
arxiv情報
著者 | Ze Yu Zhang,Arun Verma,Finale Doshi-Velez,Bryan Kian Hsiang Low |
発行日 | 2025-02-24 17:06:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google