要約
この論文では、特に特定のエンティティ タイプがあいまいな境界を持つ場合に、ゼロショットの名前付きエンティティ認識 (NER) タスクにおける大規模言語モデル (LLM) の制限を克服することを目的としたフレームワークである ReverseNER について説明します。
ReverseNER は、NER の逆プロセスを使用して信頼性の高いサンプル ライブラリを構築することで、この課題に取り組みます。
この方法では、文から始めるのではなく、LLM を使用して定義に基づいてエンティティを生成し、それを完全な文に展開します。
文の生成中、LLM は、クラスタリングによってタスク文から抽出された特定の「特徴文」の構造を複製するように誘導されます。
これにより、タスク文との意味的および構造的な類似性を維持しながら、エンティティが明確にラベル付けされた、適切に注釈が付けられた文が生成されます。
サンプル ライブラリが構築されると、このメソッドは、LLM の推論をサポートするために、タスク センテンスごとに意味的に最も類似したサンプル ラベルを選択します。
また、LLM による NER パフォーマンスを向上させるためのエンティティレベルの自己一貫性スコアリングメカニズムも提案します。
実験の結果、ReverseNER は、LLM を使用した従来のゼロショット NER のパフォーマンスを大幅に上回り、いくつかの少数ショット手法を上回り、ラベル付きデータが限られたドメインの NER に顕著な改善が見られることが示されています。
要約(オリジナル)
This paper presents ReverseNER, a framework aimed at overcoming the limitations of large language models (LLMs) in zero-shot Named Entity Recognition (NER) tasks, particularly in cases where certain entity types have ambiguous boundaries. ReverseNER tackles this challenge by constructing a reliable example library with the reversed process of NER. Rather than beginning with sentences, this method uses an LLM to generate entities based on their definitions and then expands them into full sentences. During sentence generation, the LLM is guided to replicate the structure of a specific ‘feature sentence’, extracted from the task sentences by clustering. This results in well-annotated sentences with clearly labeled entities, while preserving semantic and structural similarity to the task sentences. Once the example library is constructed, the method selects the most semantically similar example labels for each task sentence to support the LLM’s inference. We also propose an entity-level self-consistency scoring mechanism to improve NER performance with LLMs. Experiments show that ReverseNER significantly outperforms traditional zero-shot NER with LLMs and surpasses several few-shot methods, marking a notable improvement in NER for domains with limited labeled data.
arxiv情報
著者 | Anbang Wang |
発行日 | 2024-11-04 13:15:56+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google