要約
命令調整された大規模言語モデルは、さまざまなタスクにわたって、生成されたテキストをユーザーの意図に合わせて調整する際に、顕著なパフォーマンスを示しています。
ただし、生成されたテキスト内で人間のような談話構造を維持することは、依然として難しい研究課題です。
この論文では、命令調整言語モデルを利用して、微調整セットアップとゼロショットセットアップの両方で構造的に一貫したテキストを生成する、柔軟で効果的な逐次フレームワークである Instruct-SCTG を提案します。
私たちのフレームワークは、自然言語の指示を使用して、望ましい人間の構造に合わせてセクションごとに記事を生成します。
さらに、ファジーな方法で談話の発散を測定する新しい自動測定基準を導入します。
ニュースとレシピの代表的なドメインからの 3 つのデータセットに対する広範な実験により、自動評価と人間による評価の両方で検証されたように、テキスト生成中に談話構造を印象付ける際のフレームワークの最先端のパフォーマンスが実証されました。
私たちのコードは Github で入手できるようになります。
要約(オリジナル)
Instruction-tuned large language models have shown remarkable performance in aligning generated text with user intentions across various tasks. However, maintaining human-like discourse structure in the generated text remains a challenging research question. In this paper, we propose Instruct-SCTG, a flexible and effective sequential framework that harnesses instruction-tuned language models to generate structurally coherent text in both fine-tuned and zero-shot setups. Our framework generates articles in a section-by-section manner, aligned with the desired human structure using natural language instructions. Furthermore, we introduce a new automatic metric that measures discourse divergence in a fuzzy manner. Extensive experiments on three datasets from representative domains of news and recipes demonstrate the state-of-the-art performance of our framework in imposing discourse structure during text generation, as verified by both automatic and human evaluation. Our code will be available on Github.
arxiv情報
著者 | Yinhong Liu,Yixuan Su,Ehsan Shareghi,Nigel Collier |
発行日 | 2023-12-19 16:20:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google