要約
拡散言語モデル (DLM) の制御性、移植性、推論速度を改善することは、自然言語生成における重要な課題です。
最近の研究では、言語モデルを使用した複雑なテキスト生成で大きな成功を収めていることが示されていますが、メモリと計算能力は依然として非常に要求が高く、期待を下回っているため、当然のことながらモデルの移植性が低く、不安定になります。
これらの問題を軽減するために、ニューラル ネットワークの量子化に関して確立された多数の方法が提案されました。
独立した展開の移植性をさらに強化し、言語の複雑さによって評価される安定性を向上させるために、量子化埋め込み制御可能拡散言語モデル (QE-CDLM) と呼ばれる新しいアプローチを提案します。
QE-CDLM は、量子化を介してタスク固有の埋め込み空間を再構築することにより、最近成功した制御可能な DLM に基づいて構築されています。
これにより、生成タスクに勾配ベースのコントローラーが使用され、より安定した中間潜在変数が取得され、自然に収束の加速と制御性の向上がもたらされます。
さらに、調整可能な重みを減らすために適応微調整方法が採用されています。
5 つの困難なきめ細かい制御タスクに関する実験結果は、QE-CDLM が品質と実現可能性の点で既存の方法と比べて優れており、より優れた複雑さと軽量な微調整を実現していることを示しています。
要約(オリジナル)
Improving the controllability, portability, and inference speed of diffusion language models (DLMs) is a key challenge in natural language generation. While recent research has shown significant success in complex text generation with language models, the memory and computational power are still very demanding and fall short of expectations, which naturally results in low portability and instability for the models. To mitigate these issues, numerous well-established methods were proposed for neural network quantization. To further enhance their portability of independent deployment as well as improve their stability evaluated by language perplexity, we propose a novel approach called the Quantized Embedding Controllable Diffusion Language Model (QE-CDLM). QE-CDLM builds upon the recent successful controllable DLMs by remodeling the task-specific embedding space via quantization. This leads to a gradient-based controller for the generation tasks, and more stable intermediate latent variables are obtained, which naturally brings in an accelerated convergence as well as better controllability. Additionally, the adaption fine-tuning method is employed to reduce tunable weights. Experimental results on five challenging fine-grained control tasks demonstrate that QE-CDLM compares favorably to existing methods in terms of quality and feasibility, achieving better perplexity and lightweight fine-tuning.
arxiv情報
著者 | Cheng Kang,Xinye Chen,Yong Hu,Daniel Novak |
発行日 | 2024-02-15 17:02:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google