Light Coreference Resolution for Russian with Hierarchical Discourse Features

要約

共参照解決は、同じ実世界の実体を参照する言及を識別してグループ化するタスクである。これまでのニューラルモデルは、共参照判断のためのスパン表現とペアワイズスコアの学習に主に焦点を当ててきた。しかし、現在の方法では、共参照解消の重要な要素である階層的な談話における参照語選択を明示的に捉えることはできない。本研究では、レトリック情報をニューラル共参照解決モデルに取り込む新しいアプローチを提案する。自動化された談話解析から修辞的特徴を収集し、その影響を検証する。ベースモデルとして、部分的に微調整された多言語実体認識言語モデルLUKEを用いて、エンドツーエンドのスパンベースの共参照解決器を実装する。本手法をロシア語の共参照解決のためのRuCoCo-23共有タスクで評価した。その結果、レトリック距離を用いた我々の最良のモデルは、Shared Taskの開発セットで1位(F1 74.6%)、テストセットで2位(F1 73.3%)となった。私たちは、私たちの研究が、ニューラル共参照解決モデルに談話情報を組み込むことに関するさらなる研究の刺激となることを期待しています。

要約(オリジナル)

Coreference resolution is the task of identifying and grouping mentions referring to the same real-world entity. Previous neural models have mainly focused on learning span representations and pairwise scores for coreference decisions. However, current methods do not explicitly capture the referential choice in the hierarchical discourse, an important factor in coreference resolution. In this study, we propose a new approach that incorporates rhetorical information into neural coreference resolution models. We collect rhetorical features from automated discourse parses and examine their impact. As a base model, we implement an end-to-end span-based coreference resolver using a partially fine-tuned multilingual entity-aware language model LUKE. We evaluate our method on the RuCoCo-23 Shared Task for coreference resolution in Russian. Our best model employing rhetorical distance between mentions has ranked 1st on the development set (74.6% F1) and 2nd on the test set (73.3% F1) of the Shared Task. We hope that our work will inspire further research on incorporating discourse information in neural coreference resolution models.

arxiv情報

著者 Elena Chistova,Ivan Smirnov
発行日 2023-06-02 11:41:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク