LLM-DA: Data Augmentation via Large Language Models for Few-Shot Named Entity Recognition

要約

大規模言語モデル (LLM) の優れた機能にもかかわらず、情報抽出タスクにおけるパフォーマンスはまだ完全に満足のいくものではありません。
ただし、その驚くべき書き換え能力と広範な世界の知識は、これらのタスクを改善するための貴重な洞察を提供します。
この論文では、少数ショット NER タスク用の LLM に基づく新しいデータ拡張手法である $LLM-DA$ を提案します。
セマンティックな整合性を損なう既存のデータ拡張手法の限界を克服し、LLM で生成されたテキストに固有の不確実性に対処するために、コンテキスト レベルとエンティティ レベルの両方で元のデータを拡張することで、NER タスクの特有の特性を活用します。
私たちのアプローチには、14 のコンテキスト書き換え戦略の採用、同じタイプのエンティティ置換の設計、および堅牢性を高めるためのノイズ注入の組み込みが含まれます。
広範な実験により、限られたデータで NER モデルのパフォーマンスを向上させる私たちのアプローチの有効性が実証されました。
さらに、追加の分析により、私たちが生成するデータの品質が他の既存の方法の品質を上回っているという主張を裏付けるさらなる証拠が提供されます。

要約(オリジナル)

Despite the impressive capabilities of large language models (LLMs), their performance on information extraction tasks is still not entirely satisfactory. However, their remarkable rewriting capabilities and extensive world knowledge offer valuable insights to improve these tasks. In this paper, we propose $LLM-DA$, a novel data augmentation technique based on LLMs for the few-shot NER task. To overcome the limitations of existing data augmentation methods that compromise semantic integrity and address the uncertainty inherent in LLM-generated text, we leverage the distinctive characteristics of the NER task by augmenting the original data at both the contextual and entity levels. Our approach involves employing 14 contextual rewriting strategies, designing entity replacements of the same type, and incorporating noise injection to enhance robustness. Extensive experiments demonstrate the effectiveness of our approach in enhancing NER model performance with limited data. Furthermore, additional analyses provide further evidence supporting the assertion that the quality of the data we generate surpasses that of other existing methods.

arxiv情報

著者 Junjie Ye,Nuo Xu,Yikun Wang,Jie Zhou,Qi Zhang,Tao Gui,Xuanjing Huang
発行日 2024-02-22 14:19:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク