Learning to Generate Text in Arbitrary Writing Styles

要約

スタイル制御されたテキスト生成におけるこれまでの研究は、多作の文学者のスタイルのエミュレート、公式または非公式のテキストの作成、生成されたテキストの毒性の程度などのタスクに焦点を当てていました。
これらのスタイルのデモは豊富に用意されており、その結果、現代の言語モデルは、プロンプト制御または識別制御を介して、多くの場合、それらをエミュレートできます。
ただし、ライティング アシスタントなどのアプリケーションでは、言語モデルが小さなライティング サンプルに基づいて作成者固有のスタイルでテキストを生成することが望ましいです。
命令調整された言語モデルでは、プロンプトで示される作成者固有のスタイルを再現するのが難しい場合があることがわかりました。
代わりに、スタイロメトリーの特徴を捕捉する、対照的にトレーニングされた表現を使用して、ターゲット スタイルでテキストを生成するように言語モデルをガイドすることを提案します。
そうする際の中心的な課題は、著者の文章が汎用言語モデルの下での驚くべきトークンの選択によって特徴付けられることです。
この緊張を調和させるために、生成的再スコアリングを組み合わせて著者固有のモデルを実現し、シーケンスレベルでスタイルの一貫性を確保するための識別制御を組み合わせます。
これらのアプローチを組み合わせると、無条件生成やスタイル転送など、さまざまな条件で作成者固有のスタイルを遵守するのに特に効果的であることがわかり、微調整を必要とせずに、基礎となる言語モデルに適用できます。

要約(オリジナル)

Prior work in style-controlled text generation has focused on tasks such as emulating the style of prolific literary authors, producing formal or informal text, and the degree of toxicity of generated text. Plentiful demonstrations of these styles are available, and as a result modern language models are often able to emulate them, either via prompting or discriminative control. However, in applications such as writing assistants, it is desirable for language models to produce text in an author-specific style on the basis of a small writing sample. We find that instruction-tuned language models can struggle to reproduce author-specific style demonstrated in a prompt. Instead, we propose to guide a language model to generate text in a target style using contrastively-trained representations that capture stylometric features. A central challenge in doing so is that an author’s writing is characterized by surprising token choices under a generic language model. To reconcile this tension, we combine generative re-scoring to achieve an author-specific model, with discriminative control to ensure style consistency at the sequence-level. The combination of these approaches is found to be particularly effective at adhering to an author-specific style in a variety of conditions, including unconditional generation and style transfer, and is applicable to any underlying language model without requiring fine-tuning.

arxiv情報

著者 Aleem Khan,Andrew Wang,Sophia Hager,Nicholas Andrews
発行日 2023-12-28 18:58:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク