Position: Uncertainty Quantification Needs Reassessment for Large-language Model Agents

要約

大規模な言語モデル(LLMS)とチャットボットエージェントは、時々間違った出力を提供することが知られており、最近、これを完全に防ぐことができないことがわかりました。
したがって、不確実性の定量化は重要な役割を果たし、aleatoricおよび認識論の不確実性のために、1つの全体数または2つの数字のいずれかの曖昧さのレベルを定量化することを目指しています。
このポジションペーパーでは、この不確実性の伝統的な二分法は、ユーザーと通信するときにLLMエージェントが動作するオープンでインタラクティブなセットアップには限られすぎており、この新しいシナリオで不確実性を豊かにする手段を研究する必要があると主張しています。
私たちは文献をレビューし、アレアトリックおよび認識論の不確実性の一般的な定義が互いに直接矛盾し、インタラクティブなLLMエージェント設定での意味を失うことを発見しました。
したがって、このような人間コンピューターの相互作用の不確実性に焦点を当てた3つの新しい研究方向を提案します。ユーザーがすべての情報を提供したり、正確なタスクを定義したり、インタラクティブな学習を定義したり、フォローアップの質問をしたり、現在のコンテキストに関する不確実性を軽減したり、豊富な言語を使用して豊富な言語を使用したりするために、現在のコンテキストについての不確実性を軽減します。
不確実性に対処して伝えるこれらの新しい方法が、より透明性が高く、信頼できる、直感的なLLMエージェントの相互作用につながると予想しています。

要約(オリジナル)

Large-language models (LLMs) and chatbot agents are known to provide wrong outputs at times, and it was recently found that this can never be fully prevented. Hence, uncertainty quantification plays a crucial role, aiming to quantify the level of ambiguity in either one overall number or two numbers for aleatoric and epistemic uncertainty. This position paper argues that this traditional dichotomy of uncertainties is too limited for the open and interactive setup that LLM agents operate in when communicating with a user, and that we need to research avenues that enrich uncertainties in this novel scenario. We review the literature and find that popular definitions of aleatoric and epistemic uncertainties directly contradict each other and lose their meaning in interactive LLM agent settings. Hence, we propose three novel research directions that focus on uncertainties in such human-computer interactions: Underspecification uncertainties, for when users do not provide all information or define the exact task at the first go, interactive learning, to ask follow-up questions and reduce the uncertainty about the current context, and output uncertainties, to utilize the rich language and speech space to express uncertainties as more than mere numbers. We expect that these new ways of dealing with and communicating uncertainties will lead to LLM agent interactions that are more transparent, trustworthy, and intuitive.

arxiv情報

著者 Michael Kirchhof,Gjergji Kasneci,Enkelejda Kasneci
発行日 2025-05-28 17:59:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク