Knowledge-injected Prompt Learning for Chinese Biomedical Entity Normalization

要約

Biomedical Entity Normalization (BEN) タスクは、未加工の非構造化医療エンティティを標準エンティティに合わせて調整することを目的としており、これによりデータの一貫性が促進され、下流の医療アプリケーションの改善が促進されます。
最近、即時学習法がこの課題において有望な結果を示しています。
しかし、既存の研究は、特に医療データが限られた数ショットのシナリオでは、より複雑な中国の BEN タスクに取り組むには不十分であり、外部の医療知識ベースの膨大な可能性はまだ完全には活用されていません。
これらの課題に対処するために、私たちは新しい知識注入プロンプト学習 (PL-Knowledge) 方法を提案します。
具体的には、私たちのアプローチは、候補エンティティのマッチング、知識の抽出、知識のエンコード、知識の注入、予測出力の 5 つの段階で構成されます。
医療エンティティに含まれる知識項目を効果的にエンコードし、カスタマイズされた知識注入テンプレートに組み込むことで、追加の知識により医療エンティティ間の潜在的な関係を捕捉するモデルの能力が強化され、標準エンティティとのより良い一致が実現します。
私たちは、少数のショットとフルスケールのシナリオの両方で、ベンチマーク データセットでモデルを広範囲に評価します。
私たちの手法は既存のベースラインを上回り、平均精度が数ショットの場合で 12.96\%、フルデータの場合で 0.94\% 向上し、BEN タスクにおけるその卓越性を示しています。

要約(オリジナル)

The Biomedical Entity Normalization (BEN) task aims to align raw, unstructured medical entities to standard entities, thus promoting data coherence and facilitating better downstream medical applications. Recently, prompt learning methods have shown promising results in this task. However, existing research falls short in tackling the more complex Chinese BEN task, especially in the few-shot scenario with limited medical data, and the vast potential of the external medical knowledge base has yet to be fully harnessed. To address these challenges, we propose a novel Knowledge-injected Prompt Learning (PL-Knowledge) method. Specifically, our approach consists of five stages: candidate entity matching, knowledge extraction, knowledge encoding, knowledge injection, and prediction output. By effectively encoding the knowledge items contained in medical entities and incorporating them into our tailor-made knowledge-injected templates, the additional knowledge enhances the model’s ability to capture latent relationships between medical entities, thus achieving a better match with the standard entities. We extensively evaluate our model on a benchmark dataset in both few-shot and full-scale scenarios. Our method outperforms existing baselines, with an average accuracy boost of 12.96\% in few-shot and 0.94\% in full-data cases, showcasing its excellence in the BEN task.

arxiv情報

著者 Songhua Yang,Chenghao Zhang,Hongfei Xu,Yuxiang Jia
発行日 2023-08-23 09:32:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク