W-procer: Weighted Prototypical Contrastive Learning for Medical Few-Shot Named Entity Recognition

要約

対照学習は、少数ショットによる名前固有表現認識(NER)のための一般的なソリューションとなっている。従来の設定では、同じラベルを持つトークン間の距離を短くし、異なるラベルを持つトークン間の距離を長くするように努めている。しかし、医療分野では、OUTSIDE(O)と注釈された実体が多く存在し、現在の対比学習法では、OUTSIDE(O)とラベル付けされていない実体と、OUTSIDE(O)とラベル付けされた実体が多く存在するにもかかわらず、ラベルの意味表現がノイズの多いプロトタイプになってしまう。この課題に対処するために、我々は医療用少数ショット名前付き固有表現認識のための重み付きプロトタイプ対照学習(W-PROCER)と名付けた新しい手法を提案する。我々のアプローチは主に、プロトタイプに基づく収縮損失と重み付けネットワークの構築を中心に展開される。これらの構成要素は、OUTSIDE(O)トークンからネガティブサンプルを区別するモデルを支援し、対比学習の識別能力を向上させる上で重要な役割を果たす。実験結果は、我々の提案するW-PROCERフレームワークが、3つの医療ベンチマークデータセットにおいて、強力なベースラインを大幅に上回ることを示している。

要約(オリジナル)

Contrastive learning has become a popular solution for few-shot Name Entity Recognization (NER). The conventional configuration strives to reduce the distance between tokens with the same labels and increase the distance between tokens with different labels. The effect of this setup may, however, in the medical domain, there are a lot of entities annotated as OUTSIDE (O), and they are undesirably pushed apart to other entities that are not labeled as OUTSIDE (O) by the current contrastive learning method end up with a noisy prototype for the semantic representation of the label, though there are many OUTSIDE (O) labeled entities are relevant to the labeled entities. To address this challenge, we propose a novel method named Weighted Prototypical Contrastive Learning for Medical Few Shot Named Entity Recognization (W-PROCER). Our approach primarily revolves around constructing the prototype-based contractive loss and weighting network. These components play a crucial role in assisting the model in differentiating the negative samples from OUTSIDE (O) tokens and enhancing the discrimination ability of contrastive learning. Experimental results show that our proposed W-PROCER framework significantly outperforms the strong baselines on the three medical benchmark datasets.

arxiv情報

著者 Mingchen Li,Yang Ye,Jeremy Yeung,Huixue Zhou,Huaiyuan Chu,Rui Zhang
発行日 2023-06-30 19:29:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL, cs.LG パーマリンク