Improving Factuality of Abstractive Summarization via Contrastive Reward Learning

要約

現代の抽象的な要約モデルは、幻覚や矛盾した情報を含む要約を生成することがよくあります。
この論文では、報酬学習と事実性指標の最近の発展を組み込んだ、シンプルだが効果的な対比学習フレームワークを提案します。
実証研究では、提案されたフレームワークにより、要約モデルが対比報酬学習を使用して事実指標のフィードバックから学習できるようになり、人間の評価によるより事実に基づく要約が得られることが実証されています。
これは、学習および評価アルゴリズムのさらなる進歩が、より事実に基づいた要約の提供に直接影響する可能性があることを示唆しています。

要約(オリジナル)

Modern abstractive summarization models often generate summaries that contain hallucinated or contradictory information. In this paper, we propose a simple but effective contrastive learning framework that incorporates recent developments in reward learning and factuality metrics. Empirical studies demonstrate that the proposed framework enables summarization models to learn from feedback of factuality metrics using contrastive reward learning, leading to more factual summaries by human evaluations. This suggests that further advances in learning and evaluation algorithms can feed directly into providing more factual summaries.

arxiv情報

著者 I-Chun Chern,Zhiruo Wang,Sanjan Das,Bhavuk Sharma,Pengfei Liu,Graham Neubig
発行日 2023-07-10 12:01:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク