CLLMFS: A Contrastive Learning enhanced Large Language Model Framework for Few-Shot Named Entity Recognition

要約

限られた量のラベル付きデータのみを持つ固有表現を識別するタスクである少数ショット固有表現認識 (NER) は、自然言語処理においてますます重要性を増しています。
既存の方法論は、さまざまなプロンプト モードを通じてラベル セマンティクスを強化したり、メトリクス学習技術を採用したりするなど、ある程度の有効性を示していますが、事前トレーニングされたモデルに豊富な知識が不足しているため、さまざまなドメインにわたるパフォーマンスの堅牢性は限られています。
この問題に対処するために、限られたトレーニング データで有望な結果を達成する、少数ショットの固有表現認識のための対照学習強化大規模言語モデル (LLM) フレームワークである CLLMFS を提案します。
LLM の内部表現が下流のタスクに与える影響を考慮して、CLLMFS は低ランク適応 (LoRA) と、特に少数ショット NER 向けに調整された対照学習メカニズムを統合します。
CLLMFS は、モデルの内部表現を強化することにより、エンティティ境界認識能力とエンティティ認識精度の両方を効果的に向上させます。
私たちの手法は、いくつかの認知されたベンチマーク全体で、既存の最高のパフォーマンスの手法と比較して、F1 スコアで 2.58\% から 97.74\% の範囲の最先端のパフォーマンス向上を達成しました。
さらに、複数のデータセットに対して実施されたクロスドメイン NER 実験を通じて、私たちの方法の堅牢な一般化機能をさらに検証しました。
私たちのコードは近い将来リリースされる予定です。

要約(オリジナル)

Few-shot Named Entity Recognition (NER), the task of identifying named entities with only a limited amount of labeled data, has gained increasing significance in natural language processing. While existing methodologies have shown some effectiveness, such as enriching label semantics through various prompting modes or employing metric learning techniques, their performance exhibits limited robustness across diverse domains due to the lack of rich knowledge in their pre-trained models. To address this issue, we propose CLLMFS, a Contrastive Learning enhanced Large Language Model (LLM) Framework for Few-Shot Named Entity Recognition, achieving promising results with limited training data. Considering the impact of LLM’s internal representations on downstream tasks, CLLMFS integrates Low-Rank Adaptation (LoRA) and contrastive learning mechanisms specifically tailored for few-shot NER. By enhancing the model’s internal representations, CLLMFS effectively improves both entity boundary awareness ability and entity recognition accuracy. Our method has achieved state-of-the-art performance improvements on F1-score ranging from 2.58\% to 97.74\% over existing best-performing methods across several recognized benchmarks. Furthermore, through cross-domain NER experiments conducted on multiple datasets, we have further validated the robust generalization capability of our method. Our code will be released in the near future.

arxiv情報

著者 Yafeng Zhang,Zilan Yu,Yuang Huang,Jing Tang
発行日 2024-08-23 04:44:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク