Model-Based Minimum Bayes Risk Decoding

要約

Minimum Bayes Risk (MBR) デコーディングは、さまざまなテキスト生成タスクにおいてビーム検索デコーディングの強力な代替手段であることが示されています。
MBR デコードでは、与えられた効用関数に従った確率モデルの下で、予想されるリスクが最も少ない仮説を仮説のプールから選択します。
考えられるすべての仮説に対して予想されるリスクを正確に計算することは現実的ではないため、MBR では 2 つの近似値が一般的に使用されます。
まず、考えられるすべての仮説ではなく、サンプリングされた一連の仮説を統合します。
次に、モンテカルロ推定量を使用して各仮説の確率を推定します。
最初の近似は計算上実行可能にするために必要ですが、通常は推論時にモデルの確率にアクセスできるため、2 番目の近似は必須ではありません。
我々は、モンテカルロ推定の代わりにモデル確率そのものを確率分布の推定として使用するMBRの変形であるモデルベースMBR(MBMBR)を提案します。
テキスト生成タスクでは、モデルベースの推定値がモンテカルロ推定値よりも有望であることを分析的および経験的に示します。
私たちの実験では、エンコーダー/デコーダー モデルと大規模な言語モデルの両方を使用したいくつかのテキスト生成タスクにおいて、MBMBR が MBR よりも優れたパフォーマンスを発揮することが示されました。

要約(オリジナル)

Minimum Bayes Risk (MBR) decoding has been shown to be a powerful alternative to beam search decoding in a variety of text generation tasks. MBR decoding selects a hypothesis from a pool of hypotheses that has the least expected risk under a probability model according to a given utility function. Since it is impractical to compute the expected risk exactly over all possible hypotheses, two approximations are commonly used in MBR. First, it integrates over a sampled set of hypotheses rather than over all possible hypotheses. Second, it estimates the probability of each hypothesis using a Monte Carlo estimator. While the first approximation is necessary to make it computationally feasible, the second is not essential since we typically have access to the model probability at inference time. We propose Model-Based MBR (MBMBR), a variant of MBR that uses the model probability itself as the estimate of the probability distribution instead of the Monte Carlo estimate. We show analytically and empirically that the model-based estimate is more promising than the Monte Carlo estimate in text generation tasks. Our experiments show that MBMBR outperforms MBR in several text generation tasks, both with encoder-decoder models and with large language models.

arxiv情報

著者 Yuu Jinnai,Tetsuro Morimura,Ukyo Honda,Kaito Ariu,Kenshi Abe
発行日 2023-11-09 10:46:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク