要約
大規模な言語モデル(LLM)は、ユーザーの指示に正確に従うことができれば、さまざまなドメインにわたって貴重な個人AIエージェントになる可能性があります。
しかし、最近の研究では、LLMSの指導能力に大きな制限が示されており、ハイステークスアプリケーションにおける信頼性に関する懸念が高まっています。
展開のリスクを軽減するには、指示を順守する際のLLMSの不確実性を正確に推定することが重要です。
私たちの知る限り、命令に従うという文脈におけるLLMSの不確実性推定能力の最初の体系的な評価を提示します。
私たちの研究は、既存の指導に従うベンチマークで重要な課題を特定します。このベンチマークでは、複数の要因が命令に従っていることに由来し、メソッドとモデル間の分離と比較を複雑にします。
これらの問題に対処するために、2つのベンチマークバージョンのデータを使用した制御された評価セットアップを導入し、さまざまな条件下で不確実性推定方法の包括的な比較を可能にします。
私たちの調査結果は、既存の不確実性方法が闘っていることを示しています。特に、モデルが次の指示に微妙なエラーを犯した場合です。
内部モデルの状態はいくらかの改善をもたらしますが、より複雑なシナリオでは不十分なままです。
制御された評価セットアップからの洞察は、LLMの制限と、指導に従うタスクの不確実性の推定の可能性を重要な理解を提供し、より信頼できるAIエージェントへの道を開きます。
要約(オリジナル)
Large language models (LLMs) could be valuable personal AI agents across various domains, provided they can precisely follow user instructions. However, recent studies have shown significant limitations in LLMs’ instruction-following capabilities, raising concerns about their reliability in high-stakes applications. Accurately estimating LLMs’ uncertainty in adhering to instructions is critical to mitigating deployment risks. We present, to our knowledge, the first systematic evaluation of the uncertainty estimation abilities of LLMs in the context of instruction-following. Our study identifies key challenges with existing instruction-following benchmarks, where multiple factors are entangled with uncertainty stems from instruction-following, complicating the isolation and comparison across methods and models. To address these issues, we introduce a controlled evaluation setup with two benchmark versions of data, enabling a comprehensive comparison of uncertainty estimation methods under various conditions. Our findings show that existing uncertainty methods struggle, particularly when models make subtle errors in instruction following. While internal model states provide some improvement, they remain inadequate in more complex scenarios. The insights from our controlled evaluation setups provide a crucial understanding of LLMs’ limitations and potential for uncertainty estimation in instruction-following tasks, paving the way for more trustworthy AI agents.
arxiv情報
著者 | Juyeon Heo,Miao Xiong,Christina Heinze-Deml,Jaya Narain |
発行日 | 2025-03-28 15:50:55+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google