要約
タイトル:制御された長さでの要約化
要約:要約化を含むテキスト生成の多くのアプリケーションでは、テキストの長さを正確にコントロールすることが重要である。既存の制御された長さの要約化のアプローチは、性能が低下するか長さを近似的にしか制御できない。この研究では、指定されたトークン数または文数に正確に制御された要約を生成する枠組みを提供し、テキストの質を維持または改善する。さらに、モデルの長さを予測することで、最適な長さの要約を生成できるように共同訓練する。提案されたフレームワークをCNNDMデータセットで評価し、既存の方法と比較して性能が向上することを示した。
– 要約化を含むテキスト生成の多くのアプリケーションにおいて、テキストの長さを正確にコントロールすることが重要。
– 既存の制御された長さの要約化のアプローチは、性能が低下するか長さを近似的にしか制御できない。
– この研究では、指定されたトークン数または文数に正確に制御された要約を生成する枠組みを提供し、テキストの質を維持または改善する。
– さらに、最適な長さの要約を生成できるように、モデルの長さを予測することで共同訓練する。
– 提案されたフレームワークをCNNDMデータセットで評価し、既存の方法と比較して性能が向上することを示した。
要約(オリジナル)
Many applications of text generation such as summarization benefit from accurately controlling the text length. Existing approaches on length-controlled summarization either result in degraded performance or can only control the length approximately. In this work, we present a framework to generate summaries with precisely the specified number of tokens or sentences, while maintaining or even improving the text quality. In addition, we jointly train the models to predict the lengths, so our model can generate summaries with optimal length. We evaluate the proposed framework on the CNNDM dataset and show improved performance compared to existing methods.
arxiv情報
著者 | Lesly Miculicich,Yujia Xie,Song Wang,Pengcheng He |
発行日 | 2023-05-09 04:45:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI