Improving Open-Ended Text Generation via Adaptive Decoding

要約

現在の言語モデルは、確率分布に従ってテキスト トークンをトークンごとにデコードしており、次のトークンの適切な候補を決定することが、生成の品質を確保するために重要です。
この研究では、言語モデルが生成プロセス中に動的に適切な候補セットを確認できるようにするメカニズムである適応デコーディングを導入しています。
具体的には、信頼度と呼ばれるエントロピーベースの指標を導入し、最適な候補セットの決定を信頼性向上プロセスとして概念化します。
候補セットにトークンを含めることの合理性は、信頼度の増加を利用して評価され、モデルが最適な候補セットを適応的に決定できるようになります。
実験結果は、私たちの方法がストーリー生成タスクにおいてより高いMAUVEと多様性を達成し、一定の一貫性を維持していることを明らかにし、既存のアルゴリズムに対するその優位性を強調しています。
コードは https://github.com/zwhong714/adaptive_decoding で入手できます。

要約(オリジナル)

Current language models decode text token by token according to probabilistic distribution, and determining the appropriate candidates for the next token is crucial to ensure generation quality. This study introduces adaptive decoding, a mechanism that empowers the language models to ascertain a sensible candidate set during the generation process dynamically. Specifically, we introduce an entropy-based metric called confidence and conceptualize determining the optimal candidate set as a confidence-increasing process. The rationality of including a token in the candidate set is assessed by leveraging the increment of confidence, enabling the model to determine the most suitable candidate set adaptively. The experimental results reveal that our method achieves higher MAUVE and diversity in story generation tasks and maintains certain coherence, underscoring its superiority over existing algorithms. The code is available at https://github.com/zwhong714/adaptive_decoding.

arxiv情報

著者 Wenhong Zhu,Hongkun Hao,Zhiwei He,Yiming Ai,Rui Wang
発行日 2024-02-28 10:38:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク