Gaussian Prior Reinforcement Learning for Nested Named Entity Recognition

要約

名前付き固有表現認識(NER)は、自然言語処理において広く研究されている課題である。近年では、その実用性と困難性から、入れ子型NERが注目されている。しかし、既存のネストNERは、ネストしたエンティティの認識順序や境界位置の関係を無視しているため、ネストしたエンティティの認識順序や境界位置の関係を考慮する必要がある。これらの問題に対処するため、我々は、入れ子NERタスクをエンティティトリプレット列生成プロセスとして定式化するGPRLという新しいseq2seqモデルを提案する。GPRLは強化学習法を採用し、金ラベルにおける実体の順序を切り離して実体の三重項を生成し、試行錯誤を経て実体の妥当な認識順序を学習することを期待する。また、ネストしたエンティティの境界距離の統計に基づき、ネストしたエンティティ間の境界距離分布を表現するガウス事前分布を設計し、ネストした境界トークンの出力確率分布を調整する。3つの入れ子型NERデータセットを用いた実験により、GPRLが従来の入れ子型NERモデルを上回る性能を持つことが示された。

要約(オリジナル)

Named Entity Recognition (NER) is a well and widely studied task in natural language processing. Recently, the nested NER has attracted more attention since its practicality and difficulty. Existing works for nested NER ignore the recognition order and boundary position relation of nested entities. To address these issues, we propose a novel seq2seq model named GPRL, which formulates the nested NER task as an entity triplet sequence generation process. GPRL adopts the reinforcement learning method to generate entity triplets decoupling the entity order in gold labels and expects to learn a reasonable recognition order of entities via trial and error. Based on statistics of boundary distance for nested entities, GPRL designs a Gaussian prior to represent the boundary distance distribution between nested entities and adjust the output probability distribution of nested boundary tokens. Experiments on three nested NER datasets demonstrate that GPRL outperforms previous nested NER models.

arxiv情報

著者 Yawen Yang,Xuming Hu,Fukun Ma,Shu’ang Li,Aiwei Liu,Lijie Wen,Philip S. Yu
発行日 2023-05-12 05:55:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL パーマリンク