Inline Citation Classification using Peripheral Context and Time-evolving Augmentation

要約

引用は、研究論文間の関連性を決定する上で極めて重要な役割を果たします。
それは、示唆的、支持的、または対照的な研究における重要な情報を描写しています。
インライン引用分類のタスクは、これらの関係を推測するのに役立ちます。
ただし、既存の研究はまだ未熟であり、さらなる精査が必要です。
インライン引用分類に使用される現在のデータセットと方法は、モデルを制約する引用マーク付きの文のみを使用して、ドメイン知識と隣接する文脈上の文に目をつぶっています。
この論文では、3Cext という名前の新しいデータセットを提案します。このデータセットは、引用文とともに、前後文を使用して談話情報を提供し、対照的および含意関係とドメイン情報を分析します。
周辺文とドメイン知識を融合する Transformer ベースのディープ ニューラル ネットワークである PeriCite を提案します。
私たちのモデルは、最高のベースラインに対して +0.09 F1 で 3Cext データセットの最先端を達成しています。
提案されたデータセットとモデルの融合方法の有効性を分析するために、広範なアブレーションを実施します。

要約(オリジナル)

Citation plays a pivotal role in determining the associations among research articles. It portrays essential information in indicative, supportive, or contrastive studies. The task of inline citation classification aids in extrapolating these relationships; However, existing studies are still immature and demand further scrutiny. Current datasets and methods used for inline citation classification only use citation-marked sentences constraining the model to turn a blind eye to domain knowledge and neighboring contextual sentences. In this paper, we propose a new dataset, named 3Cext, which along with the cited sentences, provides discourse information using the vicinal sentences to analyze the contrasting and entailing relationships as well as domain information. We propose PeriCite, a Transformer-based deep neural network that fuses peripheral sentences and domain knowledge. Our model achieves the state-of-the-art on the 3Cext dataset by +0.09 F1 against the best baseline. We conduct extensive ablations to analyze the efficacy of the proposed dataset and model fusion methods.

arxiv情報

著者 Priyanshi Gupta,Yash Kumar Atri,Apurva Nagvenkar,Sourish Dasgupta,Tanmoy Chakraborty
発行日 2023-03-01 09:11:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク