Enhancing Abstractiveness of Summarization Models through Calibrated Distillation

要約

シーケンスレベルの知識抽出は、より効率的な抽象的要約のためにSeq2Seqモデルのサイズを縮小する。しかし、それはしばしば要約における抽象性の損失につながる。本論文では、生成された要約の情報量(ROUGEで測定)を犠牲にすることなく、抽象度(n-gram overlapで測定)を向上させるDisCalという新しいアプローチを提案する。DisCalは生徒モデルに対して、2つの監視機能を持つ多様な擬似要約を公開する。第一に、抽象度と情報量の観点から最良の擬似要約が特定され、シーケンスレベルの蒸留に使用される。第二に、そのランクは、より高いランクを持つ要約により高い予測スコアを割り当てるように学生モデルを保証するために使用される。我々の実験は、DisCalが抽象的要約蒸留において先行手法を凌駕し、高度に抽象的で情報量の多い要約を生成することを示している。

要約(オリジナル)

Sequence-level knowledge distillation reduces the size of Seq2Seq models for more efficient abstractive summarization. However, it often leads to a loss of abstractiveness in summarization. In this paper, we propose a novel approach named DisCal to enhance the level of abstractiveness (measured by n-gram overlap) without sacrificing the informativeness (measured by ROUGE) of generated summaries. DisCal exposes diverse pseudo summaries with two supervision to the student model. Firstly, the best pseudo summary is identified in terms of abstractiveness and informativeness and used for sequence-level distillation. Secondly, their ranks are used to ensure the student model to assign higher prediction scores to summaries with higher ranks. Our experiments show that DisCal outperforms prior methods in abstractive summarization distillation, producing highly abstractive and informative summaries.

arxiv情報

著者 Hwanjun Song,Igor Shalyminov,Hang Su,Siffi Singh,Kaisheng Yao,Saab Mansour
発行日 2023-12-04 06:47:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク