Rethinking Relation Classification with Graph Meaning Representations

要約

自然言語理解の分野では、ニューラル モデルとグラフ意味表現 (GMR) の交差点が依然として魅力的な研究分野です。
関心が高まっているにもかかわらず、特に関係抽出タスクに関して、GMR の正確な影響の理解には重大なギャップが残っています。
これに対処するために、構造情報の伝播からコンテキスト表現の学習を切り離すように設計された、シンプルでパラメーター効率の高いニューラル アーキテクチャである DAGNN-plus を導入します。
このアーキテクチャは、さまざまなシーケンス エンコーダおよび GMR と組み合わせることで、2 つの英語と 2 つの中国語のデータセットに対する体系的な実験の基盤を提供します。
私たちの実証的分析では、4 つの異なるグラフ形式と 9 つのパーサーを利用します。
その結果、GMR の微妙な理解が得られ、4 つのデータセットのうち 3 つで改善が見られ、特に精度の高いパーサーにより中国語よりも英語が有利になっています。
興味深いことに、GMR は一般領域のデータセットと比較して文学領域のデータセットでは効果が低いようです。
これらの発見は、関係分類を改善するための、より情報に基づいた GMR およびパーサーの設計の基礎となり、自然言語理解研究の将来の軌道に明確な影響を与えることが期待されます。

要約(オリジナル)

In the field of natural language understanding, the intersection of neural models and graph meaning representations (GMRs) remains a compelling area of research. Despite the growing interest, a critical gap persists in understanding the exact influence of GMRs, particularly concerning relation extraction tasks. Addressing this, we introduce DAGNN-plus, a simple and parameter-efficient neural architecture designed to decouple contextual representation learning from structural information propagation. Coupled with various sequence encoders and GMRs, this architecture provides a foundation for systematic experimentation on two English and two Chinese datasets. Our empirical analysis utilizes four different graph formalisms and nine parsers. The results yield a nuanced understanding of GMRs, showing improvements in three out of the four datasets, particularly favoring English over Chinese due to highly accurate parsers. Interestingly, GMRs appear less effective in literary-domain datasets compared to general-domain datasets. These findings lay the groundwork for better-informed design of GMRs and parsers to improve relation classification, which is expected to tangibly impact the future trajectory of natural language understanding research.

arxiv情報

著者 Li Zhou,Wenyu Chen,Dingyi Zeng,Malu Zhang,Daniel Hershcovich
発行日 2023-12-28 02:57:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク