要約
制御可能なテキスト生成 (CTG) は、必要な属性を持つテキストを生成することを目的としており、デコード時間ベースのメソッドはこのタスクで有望なパフォーマンスを示しています。
しかし、この論文では、属性崩壊という現象を初めて特定しました。
制御強度が臨界値を超えると、生成されたテキストの流暢性が急速に低下し、テキストが完全に使用できなくなります。
この制限により、高レベルの制御性を達成する際のデコード方法の有効性が妨げられます。
この問題に対処するために、Air-Decoding という名前の新しい軽量デコード フレームワークを提案します。
その主なアイデアは、属性の分布を再構築して属性語と非属性語の間の重みのバランスをとり、より流暢なテキストを生成することです。
具体的には、プレフィックスチューニングによってプレフィックスをトレーニングし、属性分布を取得します。
次に、取得された分布のバランスをとり、再構築された分布を使用して生成用の言語モデルをガイドする新しい属性分布再構成方法を設計し、属性崩壊の問題を効果的に回避します。
複数の CTG タスクでの実験により、私たちの方法が新しい最先端の制御パフォーマンスを達成することが証明されました。
要約(オリジナル)
Controllable text generation (CTG) aims to generate text with desired attributes, and decoding-time-based methods have shown promising performance on this task. However, in this paper, we identify the phenomenon of Attribute Collapse for the first time. It causes the fluency of generated text to rapidly decrease when the control strength exceeds a critical value, rendering the text completely unusable. This limitation hinders the effectiveness of decoding methods in achieving high levels of controllability. To address this problem, we propose a novel lightweight decoding framework named Air-Decoding. Its main idea is reconstructing the attribute distributions to balance the weights between attribute words and non-attribute words to generate more fluent text. Specifically, we train prefixes by prefix-tuning to obtain attribute distributions. Then we design a novel attribute distribution reconstruction method to balance the obtained distributions and use the reconstructed distributions to guide language models for generation, effectively avoiding the issue of Attribute Collapse. Experiments on multiple CTG tasks prove that our method achieves a new state-of-the-art control performance.
arxiv情報
著者 | Tianqi Zhong,Quan Wang,Jingxuan Han,Yongdong Zhang,Zhendong Mao |
発行日 | 2023-10-24 15:54:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google