P-ICL: Point In-Context Learning for Named Entity Recognition with Large Language Models

要約

近年、大規模言語モデル (LLM) の台頭により、デモンストレーション サンプルを使用せずに、またはインコンテキスト学習 (ICL) を通じて少数のサンプルのみを使用して、固有表現認識 (NER) を直接実現できるようになりました。
ただし、標準 ICL は、LLM がタスクの命令、形式、および入力ラベルのマッピングを理解するのに役立つだけで、NER タスク自体の特殊性は無視されます。
この論文では、LLM で NER をより適切に達成するための新しいプロンプト フレームワーク P-ICL を提案します。このフレームワークでは、いくつかの点エンティティが各エンティティ タイプを認識するための補助情報として活用されます。
このような重要な情報を使用すると、LLM はエンティティの分類をより正確に行うことができます。
LLM をプロンプトするための最適な点エンティティを取得するために、K-Means クラスタリングに基づく点エンティティ選択方法も提案しました。
いくつかの代表的な NER ベンチマークに関する広範な実験により、P-ICL およびポイント エンティティの選択における提案された戦略の有効性が検証されます。

要約(オリジナル)

In recent years, the rise of large language models (LLMs) has made it possible to directly achieve named entity recognition (NER) without any demonstration samples or only using a few samples through in-context learning (ICL). However, standard ICL only helps LLMs understand task instructions, format and input-label mapping, but neglects the particularity of the NER task itself. In this paper, we propose a new prompting framework P-ICL to better achieve NER with LLMs, in which some point entities are leveraged as the auxiliary information to recognize each entity type. With such significant information, the LLM can achieve entity classification more precisely. To obtain optimal point entities for prompting LLMs, we also proposed a point entity selection method based on K-Means clustering. Our extensive experiments on some representative NER benchmarks verify the effectiveness of our proposed strategies in P-ICL and point entity selection.

arxiv情報

著者 Guochao Jiang,Zepeng Ding,Yuchen Shi,Deqing Yang
発行日 2024-05-08 11:01:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク