XWikiGen: Cross-lingual Summarization for Encyclopedic Text Generation in Low Resource Languages

要約

特にウィキペディアでは、百科事典的なテキストの寄稿者が不足しているため、\emph{低リソース (LR) 言語} の自動テキスト生成が重大な問題になっています。
ウィキペディアのテキスト生成に関する既存の作業は、英語の参照記事を要約して英語のウィキペディア ページを生成する \emph{English only} に焦点を当てていました。
しかし、リソースの少ない言語の場合、参照記事が不足しているため、単一言語の要約ではこの問題を解決できません。
したがって、この作業では \task{} を提案します。これは、ウィキペディア スタイルのテキストを生成するために、さまざまな言語で書かれた複数の参照記事からのテキストを言語間で複数ドキュメント要約するタスクです。
したがって、5 つのドメインと 8 つの言語をカバーする $\sim$69K のウィキペディアの記事にまたがるベンチマーク データセット \data{} を提供します。
このデータセットを利用して、入力が一連の引用とセクション タイトルであり、出力がセクション固有の LR 要約である 2 段階のシステムをトレーニングします。
提案されたシステムは、セクション固有のテキストを生成するためのニューラル抽象モデルが続く顕著な情報を大まかに識別するためのニューラル教師なし抽出要約の新しいアイデアに基づいています。
広範な実験により、マルチドメイン トレーニングは平均して多言語セットアップよりも優れていることが示されています。

要約(オリジナル)

Lack of encyclopedic text contributors, especially on Wikipedia, makes automated text generation for \emph{low resource (LR) languages} a critical problem. Existing work on Wikipedia text generation has focused on \emph{English only} where English reference articles are summarized to generate English Wikipedia pages. But, for low-resource languages, the scarcity of reference articles makes monolingual summarization ineffective in solving this problem. Hence, in this work, we propose \task{}, which is the task of cross-lingual multi-document summarization of text from multiple reference articles, written in various languages, to generate Wikipedia-style text. Accordingly, we contribute a benchmark dataset, \data{}, spanning $\sim$69K Wikipedia articles covering five domains and eight languages. We harness this dataset to train a two-stage system where the input is a set of citations and a section title and the output is a section-specific LR summary. The proposed system is based on a novel idea of neural unsupervised extractive summarization to coarsely identify salient information followed by a neural abstractive model to generate the section-specific text. Extensive experiments show that multi-domain training is better than the multi-lingual setup on average.

arxiv情報

著者 Dhaval Taunk,Shivprasad Sagare,Anupam Patil,Shivansh Subramanian,Manish Gupta,Vasudeva Varma
発行日 2023-03-22 04:52:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク