Adaptive Contrastive Search: Uncertainty-Guided Decoding for Open-Ended Text Generation

要約

大規模な言語モデルの出力分布からデコードして高品質のテキストを生成することは、言語モデリングにおける複雑な課題です。
この問題に対処するために、コヒーレンス、ダイバーシティ、
人間が作成したテキストとの類似性も同様です。
この研究では、各生成ステップでのモデルの推定不確実性に基づいて、適応縮退ペナルティを組み込むことでコントラスト検索を拡張する新しい復号戦略である適応コントラスト検索を導入します。
この戦略は、言語モデリング プロセスの創造性と多様性の両方を強化すると同時に、一貫性のある高品質なテキスト出力を生成するように設計されています。
私たちの調査結果は、さまざまなモデル アーキテクチャとデータセットにわたって両方の側面でパフォーマンスが向上していることを示しており、テキスト生成タスクにおける私たちの方法の有効性を強調しています。
私たちのコードベース、データセット、モデルは公開されています。

要約(オリジナル)

Decoding from the output distributions of large language models to produce high-quality text is a complex challenge in language modeling. Various approaches, such as beam search, sampling with temperature, $k-$sampling, nucleus $p-$sampling, typical decoding, contrastive decoding, and contrastive search, have been proposed to address this problem, aiming to improve coherence, diversity, as well as resemblance to human-generated text. In this study, we introduce adaptive contrastive search, a novel decoding strategy extending contrastive search by incorporating an adaptive degeneration penalty, guided by the estimated uncertainty of the model at each generation step. This strategy is designed to enhance both the creativity and diversity of the language modeling process while at the same time producing coherent and high-quality generated text output. Our findings indicate performance enhancement in both aspects, across different model architectures and datasets, underscoring the effectiveness of our method in text generation tasks. Our code base, datasets, and models are publicly available.

arxiv情報

著者 Esteban Garces Arias,Julian Rodemann,Meimingwei Li,Christian Heumann,Matthias Aßenmacher
発行日 2024-07-26 12:23:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG, stat.ME, stat.ML パーマリンク