Arithmetic Sampling: Parallel Diverse Decoding for Large Language Models

要約

大規模な言語モデルのデコード方法は、多くの場合、出力の多様性と計算の並列性の間でトレードオフになります。
ビーム サーチやガンベル トップ K サンプリングなどの方法は、ビームの各要素に対して異なる出力を保証できますが、並列化するのは簡単ではありません。
あるいは、温度サンプリングとその修正 (top-k サンプリング、核サンプリング、典型的なデコードなど) などの方法は、恥ずかしいほど並列ですが、重複サンプルについては保証がありません。
私たちは、大規模な言語モデルによって暗黙的に定義された算術コードブックに従ったサンプリングのフレームワークを提示します。一般的なサンプリングのバリエーションと互換性があり、特定の条件下で証明可能なビームの多様性を備え、さらに恥ずかしいほど並列であり、元のモデルから偏りのない一貫した期待を提供します。

我々は、WMT 機械翻訳に対するアプローチの有効性を実証し、予想される BLEU スコア報酬を推定する際の標準偏差を半分以上にし、独立サンプリングとビーム探索の間の BLEU スコアのギャップを最大 63% 縮めることができました。

要約(オリジナル)

Decoding methods for large language models often trade-off between diversity of outputs and parallelism of computation. Methods such as beam search and Gumbel top-k sampling can guarantee a different output for each element of the beam, but are not easy to parallelize. Alternatively, methods such as temperature sampling and its modifications (top-k sampling, nucleus sampling, typical decoding, and others), are embarrassingly parallel, but have no guarantees about duplicate samples. We present a framework for sampling according to an arithmetic code book implicitly defined by a large language model, compatible with common sampling variations, with provable beam diversity under certain conditions, as well as being embarrassingly parallel and providing unbiased and consistent expectations from the original model. We demonstrate the effectiveness of our approach on WMT machine translation, more than halving the standard deviation when estimating expected BLEU score reward, and closing the BLEU score gap between independent sampling and beam search by up to 63%.

arxiv情報

著者 Luke Vilnis,Yury Zemlyanskiy,Patrick Murray,Alexandre Passos,Sumit Sanghai
発行日 2023-06-01 16:18:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG, stat.ML パーマリンク