Improving Factual Error Correction for Abstractive Summarization via Data Distillation and Conditional-generation Cloze

要約

抽象的な要約における事実の一貫性を改善することが現在の研究の焦点となっています。
有望なアプローチの 1 つは、ポストエディット手法です。
しかし、これまでの研究では、要約に事実要素がまだ十分に活用されておらず、トレーニング データセットの悪影響に悩まされています。
本稿では、まず条件付き生成クローズタスクに基づく新しい事実誤り修正モデルFactClozeを提案する。
FactCloze は、空白部分に回答できるかどうかを判断しながら、事実要因間の因果関係を構築できます。
次に、多次元評価を通じてより忠実な要約データセット SummDSC を生成するためのデータ蒸留手法を提案します。
私たちはアプローチの有効性を実験的に検証し、ベースラインと比較して複数の事実整合性指標の改善につながります。

要約(オリジナル)

Improving factual consistency in abstractive summarization has been a focus of current research. One promising approach is the post-editing method. However, previous works have yet to make sufficient use of factual factors in summaries and suffers from the negative effect of the training datasets. In this paper, we first propose a novel factual error correction model FactCloze based on a conditional-generation cloze task. FactCloze can construct the causality among factual factors while being able to determine whether the blank can be answered or not. Then, we propose a data distillation method to generate a more faithful summarization dataset SummDSC via multiple-dimensional evaluation. We experimentally validate the effectiveness of our approach, which leads to an improvement in multiple factual consistency metrics compared to baselines.

arxiv情報

著者 Yiyang Li,Lei Li,Dingxin Hu,Xueyi Hao,Marina Litvak,Natalia Vanetik,Yanquan Zhou
発行日 2024-02-13 16:35:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク