要約
フューショット NER は、限られた数の例示的なインスタンスのみを使用してターゲット タイプのエンティティを識別することを目的としています。
残念ながら、少数ショット NER は、本質的な正確な一般化問題によって深刻な課題にさらされています。つまり、情報不足に起因する曖昧さのために、目的のターゲット タイプを正確に決定することが困難です。
この論文では、アクティブ ラーニング パラダイムを通じて上記の課題を解決する重ね合わせ概念識別器 (SuperCD) を提案します。
具体的には、概念抽出機能が最初に導入され、各概念が可能な一般化境界に対応する重ね合わせ概念を例示的なインスタンスから識別する。
次に、重ね合わせインスタンス取得機能を適用して、これらの重ね合わせ概念の対応するインスタンスを大規模テキスト コーパスから取得します。
最後に、アノテーターは、取得したインスタンスにアノテーションを付けるように求められ、これらのアノテーションが付けられたインスタンスは、元の例示的なインスタンスとともに FS-NER モデルの学習に使用されます。
この目的を達成するために、大規模でオープンに利用可能な知識ベースを使用して、普遍的な概念抽出器と重ね合わせインスタンス取得器を学習します。
実験によれば、SuperCD は、例示的なインスタンスから重ね合わせの概念を効果的に特定し、大規模なコーパスから重ね合わせインスタンスを取得し、最小限の追加労力で少数ショット NER のパフォーマンスを大幅に向上させることができます。
要約(オリジナル)
Few-shot NER aims to identify entities of target types with only limited number of illustrative instances. Unfortunately, few-shot NER is severely challenged by the intrinsic precise generalization problem, i.e., it is hard to accurately determine the desired target type due to the ambiguity stemming from information deficiency. In this paper, we propose Superposition Concept Discriminator (SuperCD), which resolves the above challenge via an active learning paradigm. Specifically, a concept extractor is first introduced to identify superposition concepts from illustrative instances, with each concept corresponding to a possible generalization boundary. Then a superposition instance retriever is applied to retrieve corresponding instances of these superposition concepts from large-scale text corpus. Finally, annotators are asked to annotate the retrieved instances and these annotated instances together with original illustrative instances are used to learn FS-NER models. To this end, we learn a universal concept extractor and superposition instance retriever using a large-scale openly available knowledge bases. Experiments show that SuperCD can effectively identify superposition concepts from illustrative instances, retrieve superposition instances from large-scale corpus, and significantly improve the few-shot NER performance with minimal additional efforts.
arxiv情報
著者 | Jiawei Chen,Hongyu Lin,Xianpei Han,Yaojie Lu,Shanshan Jiang,Bin Dong,Le Sun |
発行日 | 2024-03-25 06:45:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google