要約
広く展開されている大規模言語モデル (LLM) は、説得力はあるものの間違った出力を生成する可能性があり、それを正しいかのように信頼するユーザーを誤解させる可能性があります。
このような過度の依存を減らすために、LLM が不確実性をエンドユーザーに伝えるよう求める声がありました。
しかし、ユーザーが LLM の不確実性の表現をどのように認識し、それに対して行動するかを調査した実証的な研究はほとんどありません。
私たちは、事前登録された人間を対象とした大規模な実験 (N=404) を通じてこの疑問を探ります。この実験では、参加者は、架空の LLM が組み込まれた検索エンジンからの回答へのアクセスの有無にかかわらず、医療上の質問に回答します。
私たちは、行動測定と自己報告測定の両方を使用して、不確実性のさまざまな自然言語表現が参加者の信頼、信頼、全体的なタスクのパフォーマンスにどのような影響を与えるかを調査します。
一人称表現 (例: 「よくわかりませんが…」) は、参加者のシステムに対する信頼を低下させ、システムの回答に同意する傾向を低下させる一方で、参加者の正確性を高めることがわかりました。
探索的分析によると、この増加は不正解への過度の依存が減少した(完全に排除されたわけではない)ことに起因する可能性があることが示唆されています。
一般的な観点から表現された不確実性(たとえば、「明確ではありませんが…」)に対して同様の効果が観察されますが、これらの効果は弱く、統計的に有意ではありません。
私たちの調査結果は、不確実性の自然言語表現の使用は、LLM への過度の依存を減らすための効果的なアプローチである可能性があるが、使用される正確な言語が重要であることを示唆しています。
これは、LLM を大規模に展開する前にユーザー テストを行うことの重要性を強調しています。
要約(オリジナル)
Widely deployed large language models (LLMs) can produce convincing yet incorrect outputs, potentially misleading users who may rely on them as if they were correct. To reduce such overreliance, there have been calls for LLMs to communicate their uncertainty to end users. However, there has been little empirical work examining how users perceive and act upon LLMs’ expressions of uncertainty. We explore this question through a large-scale, pre-registered, human-subject experiment (N=404) in which participants answer medical questions with or without access to responses from a fictional LLM-infused search engine. Using both behavioral and self-reported measures, we examine how different natural language expressions of uncertainty impact participants’ reliance, trust, and overall task performance. We find that first-person expressions (e.g., ‘I’m not sure, but…’) decrease participants’ confidence in the system and tendency to agree with the system’s answers, while increasing participants’ accuracy. An exploratory analysis suggests that this increase can be attributed to reduced (but not fully eliminated) overreliance on incorrect answers. While we observe similar effects for uncertainty expressed from a general perspective (e.g., ‘It’s not clear, but…’), these effects are weaker and not statistically significant. Our findings suggest that using natural language expressions of uncertainty may be an effective approach for reducing overreliance on LLMs, but that the precise language used matters. This highlights the importance of user testing before deploying LLMs at scale.
arxiv情報
著者 | Sunnie S. Y. Kim,Q. Vera Liao,Mihaela Vorvoreanu,Stephanie Ballard,Jennifer Wortman Vaughan |
発行日 | 2024-05-01 16:43:55+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google