要約
近年、少数ショット名前付き固有表現認識(NER)において2段階のプロトタイプネットワークが成功を収めているが、スパン検出段階での誤スパンの過不足検出や、タイプ分類段階での固有表現プロトタイプの未整列といった課題が残っている。さらに、LLMは一般に効果的な少数ショット情報抽出器ではないことが証明されている。本論文では、これらの問題に対処するために、少数ショット名前付き固有表現認識のための境界認識LLMと呼ばれるアプローチを提案する。本論文では、一般化されたエンティティスパンに対して、エンティティの境界を認識するLLMの能力を向上させるために、境界を意識した対照学習戦略を導入する。さらに、LoRAHubを利用して、ターゲットドメインからソースドメインへの情報を整列させ、適応的なクロスドメイン分類能力を強化する。様々なベンチマークを用いた広範な実験により、我々のフレームワークが先行手法を凌駕することが実証され、その有効性が検証された。特に、提案する戦略は、様々なLLMアーキテクチャにおいて有効であることを示している。コードとデータはhttps://github.com/UESTC-GQJ/BANER。
要約(オリジナル)
Despite the recent success of two-stage prototypical networks in few-shot named entity recognition (NER), challenges such as over/under-detected false spans in the span detection stage and unaligned entity prototypes in the type classification stage persist. Additionally, LLMs have not proven to be effective few-shot information extractors in general. In this paper, we propose an approach called Boundary-Aware LLMs for Few-Shot Named Entity Recognition to address these issues. We introduce a boundary-aware contrastive learning strategy to enhance the LLM’s ability to perceive entity boundaries for generalized entity spans. Additionally, we utilize LoRAHub to align information from the target domain to the source domain, thereby enhancing adaptive cross-domain classification capabilities. Extensive experiments across various benchmarks demonstrate that our framework outperforms prior methods, validating its effectiveness. In particular, the proposed strategies demonstrate effectiveness across a range of LLM architectures. The code and data are released on https://github.com/UESTC-GQJ/BANER.
arxiv情報
著者 | Quanjiang Guo,Yihong Dong,Ling Tian,Zhao Kang,Yu Zhang,Sijie Wang |
発行日 | 2024-12-03 07:51:14+00:00 |
arxivサイト | arxiv_id(pdf) |