EDU-level Extractive Summarization with Varying Summary Lengths

要約

抽出モデルは、通常、ドキュメントから上位 $k$ 固定の顕著な文を要約として抽出するテキスト要約を定式化します。
抽出単位選択の分析と正当化がほとんどない、よりきめの細かい初等談話単位 (EDU) の抽出を利用した研究はほとんどありません。
さらに、固定された上位 $k$ の顕著な文の選択戦略は、要約の必要性にあまり適合しません。ドキュメントごとに顕著な文の数が異なり、したがって、共通のまたは最良の $k$ が実際には存在しないためです。
これらのギャップを埋めるために、この論文ではまず、EDU と文に基づいてオラクルの要約の比較分析を行います。これは、EDU が文よりも高い自動評価スコアで要約を作成することを正当化および定量化するための理論的および実験的観点からの証拠を提供します。
次に、EDUのこのメリットを考慮して、この論文ではさらに、さまざまな要約長を持つEDUレベルの抽出モデルを提案し、対応する学習アルゴリズムを開発します。
EDU-VL は、エンドツーエンドのトレーニング方法で、ドキュメント内の EDU の確率をエンコードおよび予測し、さまざまな $k$ 値に基づいて長さが異なる複数の要約候補を生成し、要約候補をエンコードおよびスコアリングすることを学習します。
最後に、EDU-VL は単一および複数ドキュメントのベンチマーク データセットで実験され、最先端の抽出モデルと比較して ROUGE スコアのパフォーマンスが改善されていることが示されています。さらに人間による評価では、EDU 構成要素の要約が優れた文法性と読みやすさを維持していることを示唆しています。
.

要約(オリジナル)

Extractive models usually formulate text summarization as extracting fixed top-$k$ salient sentences from the document as a summary. Few works exploited extracting finer-grained Elementary Discourse Unit (EDU) with little analysis and justification for the extractive unit selection. Further, the selection strategy of the fixed top-$k$ salient sentences fits the summarization need poorly, as the number of salient sentences in different documents varies and therefore a common or best $k$ does not exist in reality. To fill these gaps, this paper first conducts the comparison analysis of oracle summaries based on EDUs and sentences, which provides evidence from both theoretical and experimental perspectives to justify and quantify that EDUs make summaries with higher automatic evaluation scores than sentences. Then, considering this merit of EDUs, this paper further proposes an EDU-level extractive model with Varying summary Lengths and develops the corresponding learning algorithm. EDU-VL learns to encode and predict probabilities of EDUs in the document, generate multiple candidate summaries with varying lengths based on various $k$ values, and encode and score candidate summaries, in an end-to-end training manner. Finally, EDU-VL is experimented on single and multi-document benchmark datasets and shows improved performances on ROUGE scores in comparison with state-of-the-art extractive models, and further human evaluation suggests that EDU-constituent summaries maintain good grammaticality and readability.

arxiv情報

著者 Yuping Wu,Ching-Hsun Tseng,Jiayu Shang,Shengzhong Mao,Goran Nenadic,Xiao-Jun Zeng
発行日 2023-03-13 13:18:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク