要約
この研究では、グラフ ニューラル ネットワーク (GNN) 表現を使用して、長い文書からキーフレーズを抽出するための事前トレーニング済み言語モデル (PLM) のコンテキスト化された表現を強化する方法を調査します。
グラフ埋め込みを使用して PLM を強化すると、特に長い文書の場合、文書内の単語のより包括的な意味的理解を提供できることを示します。
テキストの共起グラフを構築し、エッジ予測のタスクでトレーニングされたグラフ畳み込みネットワーク (GCN) を使用してそれを埋め込みます。
私たちは、グラフ表現を使用してコンテキスト化された PLM 埋め込みを強化する、グラフ強化シーケンス タグ付けアーキテクチャを提案します。
ベンチマーク データセットでの評価により、グラフ エンベディングを使用して PLM を強化すると、長いドキュメントで最先端のモデルよりも優れたパフォーマンスを発揮し、すべてのデータセットにわたって F1 スコアが大幅に向上することが示されました。
私たちの調査では、長い文書からキーフレーズを抽出する際の PLM パフォーマンスを向上させるための補完的なアプローチとして GNN 表現の可能性が強調されています。
要約(オリジナル)
In this study, we investigate using graph neural network (GNN) representations to enhance contextualized representations of pre-trained language models (PLMs) for keyphrase extraction from lengthy documents. We show that augmenting a PLM with graph embeddings provides a more comprehensive semantic understanding of words in a document, particularly for long documents. We construct a co-occurrence graph of the text and embed it using a graph convolutional network (GCN) trained on the task of edge prediction. We propose a graph-enhanced sequence tagging architecture that augments contextualized PLM embeddings with graph representations. Evaluating on benchmark datasets, we demonstrate that enhancing PLMs with graph embeddings outperforms state-of-the-art models on long documents, showing significant improvements in F1 scores across all the datasets. Our study highlights the potential of GNN representations as a complementary approach to improve PLM performance for keyphrase extraction from long documents.
arxiv情報
著者 | Roberto Martínez-Cruz,Debanjan Mahata,Alvaro J. López-López,José Portela |
発行日 | 2023-05-16 09:44:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google