Inspire the Large Language Model by External Knowledge on BioMedical Named Entity Recognition

要約

大規模言語モデル (LLM) は、多くの NLP タスク、特に生成タスクにおいて圧倒的なパフォーマンスを実証しています。
ただし、一部の情報抽出タスク、特に生物医学の固有表現認識 (NER) などのドメイン固有の知識を必要とするタスクでは不十分なことがよくあります。
この論文では、思考連鎖からインスピレーションを得て、LLM を活用して生物医学 NER を段階的に解決します。つまり、NER タスクをエンティティ スパンの抽出とエンティティ タイプの決定に分割します。
さらに、エンティティ タイプの決定では、エンティティ カテゴリを予測するときに LLM にドメイン知識が不足しているという問題に対処するために、エンティティの知識を注入します。
実験結果は、以前の数ショット LLM ベースラインと比較して、2 ステップ BioNER アプローチが大幅に改善されたことを示しています。
さらに、外部知識を組み込むことで、エンティティ カテゴリの決定パフォーマンスが大幅に向上します。

要約(オリジナル)

Large language models (LLMs) have demonstrated dominating performance in many NLP tasks, especially on generative tasks. However, they often fall short in some information extraction tasks, particularly those requiring domain-specific knowledge, such as Biomedical Named Entity Recognition (NER). In this paper, inspired by Chain-of-thought, we leverage the LLM to solve the Biomedical NER step-by-step: break down the NER task into entity span extraction and entity type determination. Additionally, for entity type determination, we inject entity knowledge to address the problem that LLM’s lack of domain knowledge when predicting entity category. Experimental results show a significant improvement in our two-step BioNER approach compared to previous few-shot LLM baseline. Additionally, the incorporation of external knowledge significantly enhances entity category determination performance.

arxiv情報

著者 Junyi Bian,Jiaxuan Zheng,Yuyi Zhang,Shanfeng Zhu
発行日 2023-09-21 17:39:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク