Semantic Uncertainty: Linguistic Invariances for Uncertainty Estimation in Natural Language Generation

要約

タイトル:自然言語生成において不確実性を推定するための言語的不変量:意味的不確実性

要約:
– 大規模言語モデルにおける不確実性を測定する方法を提案する。
– 質問応答などのタスクでは、元となるモデルの出力を信頼できるかどうかを知ることが重要。
– 自然言語における不確実性の測定は、異なる文でも同じ意味を持つことがあるため、困難である。
– この問題を克服するために、共通の意味を持つ言語的不変量を組み込んだエントロピーである「意味的エントロピー」を導入する。
– この方法は教師なしであり、1つのモデルだけを使用し、既存の言語モデルを修正する必要はない。
– 徹底的な削除研究により、意味的エントロピーは、類似のベースラインに比べて、質問応答データセットにおけるモデルの精度の予測性が高いことを示した。

要約(オリジナル)

We introduce a method to measure uncertainty in large language models. For tasks like question answering, it is essential to know when we can trust the natural language outputs of foundation models. We show that measuring uncertainty in natural language is challenging because of ‘semantic equivalence’ — different sentences can mean the same thing. To overcome these challenges we introduce semantic entropy — an entropy which incorporates linguistic invariances created by shared meanings. Our method is unsupervised, uses only a single model, and requires no modifications to off-the-shelf language models. In comprehensive ablation studies we show that the semantic entropy is more predictive of model accuracy on question answering data sets than comparable baselines.

arxiv情報

著者 Lorenz Kuhn,Yarin Gal,Sebastian Farquhar
発行日 2023-04-15 12:55:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク