Controlled Text Generation with Hidden Representation Transformations

要約

私たちは、特定の属性 (毒性など) に関連するテキストを生成するように大規模な言語モデルを制御する、制御された言語生成フレームワークである CHRT (Control Hidden Representation Transformation) を提案します。
CHRT は、学習された変換を通じて基本モデルの非表示表現を変更することで属性制御を獲得します。
私たちは、対比学習フレームワークを使用してこれらの変換を学習し、これらを組み合わせて複数の属性を制御できるようにします。
CHRT の有効性は、3 つの属性にわたる 7 つのベースラインと比較することによって実験的に示されています。
CHRT は、言語的性質の損失を最小限に抑えながら、解毒、ポジティブな感情の誘導、およびテキストの簡素化というタスクにおいてすべてのベースラインを上回ります。
さらに、私たちのアプローチの推論遅延はベース モデルよりもわずか 0.01 秒増加するという最も短いものであり、高パフォーマンスの実稼働環境に最適です。
私たちはコードをオープンソース化し、制御言語生成研究をさらに推進するために 2 つの新しいデータセットをリリースします。

要約(オリジナル)

We propose CHRT (Control Hidden Representation Transformation) – a controlled language generation framework that steers large language models to generate text pertaining to certain attributes (such as toxicity). CHRT gains attribute control by modifying the hidden representation of the base model through learned transformations. We employ a contrastive-learning framework to learn these transformations that can be combined to gain multi-attribute control. The effectiveness of CHRT is experimentally shown by comparing it with seven baselines over three attributes. CHRT outperforms all the baselines in the task of detoxification, positive sentiment steering, and text simplification while minimizing the loss in linguistic qualities. Further, our approach has the lowest inference latency of only 0.01 seconds more than the base model, making it the most suitable for high-performance production environments. We open-source our code and release two novel datasets to further propel controlled language generation research.

arxiv情報

著者 Vaibhav Kumar,Hana Koorehdavoudi,Masud Moshtaghi,Amita Misra,Ankit Chadha,Emilio Ferrara
発行日 2023-05-30 17:21:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク