要約
固有表現認識 (NER) の以前のモデルの多くは、エンティティ外 (OOE) の問題に悩まされています。つまり、テスト サンプルの実体言及内のトークンがトレーニング サンプルに現れていないため、満足のいく結果の達成が妨げられています。
パフォーマンス。
OOE-NER のパフォーマンスを向上させるために、この論文では、文レベルの情報を完全に活用する新しいフレームワーク、つまり S+NER を提案します。
当社の S+NER は、主に次の 2 つの特別な設計により、より優れた OOE-NER パフォーマンスを実現します。
1) まず、テンプレート セットを使用して、ターゲット エンティティの文レベルのコンテキストを理解する事前トレーニング済み言語モデルの機能を利用します。
2) 次に、対照的な学習戦略とテンプレートプーリング方法を通じて、肯定的テンプレートと否定的テンプレートに基づいて文レベルの表現を改良し、より良い NER 結果を取得します。
5 つのベンチマーク データセットに対する広範な実験により、S+NER がいくつかの最先端の OOE-NER モデルよりも優れていることが実証されました。
要約(オリジナル)
Many previous models of named entity recognition (NER) suffer from the problem of Out-of-Entity (OOE), i.e., the tokens in the entity mentions of the test samples have not appeared in the training samples, which hinders the achievement of satisfactory performance. To improve OOE-NER performance, in this paper, we propose a new framework, namely S+NER, which fully leverages sentence-level information. Our S+NER achieves better OOE-NER performance mainly due to the following two particular designs. 1) It first exploits the pre-trained language model’s capability of understanding the target entity’s sentence-level context with a template set. 2) Then, it refines the sentence-level representation based on the positive and negative templates, through a contrastive learning strategy and template pooling method, to obtain better NER results. Our extensive experiments on five benchmark datasets have demonstrated that, our S+NER outperforms some state-of-the-art OOE-NER models.
arxiv情報
著者 | Guochao Jiang,Ziqin Luo,Chengwei Hu,Zepeng Ding,Deqing Yang |
発行日 | 2025-01-13 14:13:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google