Multicultural Name Recognition For Previously Unseen Names

要約

最先端の固有表現認識 (NER) モデルは、場所、組織、時間、人物などのラベルに属するテキストから一般的なフレーズを抽出する優れた機能を実現しました。
ただし、エンティティにラベルを付けるために、トレーニング データ内で特定のエンティティを見たことに依存する典型的な NER システムは、エンティティにラベルを付けるために、まれなエンティティや見たことのないエンティティに対してパフォーマンスが低下します (Derczynski et al.,
2017)。
この論文は、人名という多様なカテゴリの認知度を向上させることを試みており、人が誕生したり名前が変わったりするたびに増加する可能性があります。
下流のタスクが文化的背景に基づいたバイアスを示さないようにするには、モデルがさまざまな背景の名前に対して適切に機能する必要があります。
この論文では、英語の Bi-LSTM 名前認識モデルのトレーニング データと入力構造を実験します。
私は 103 か国の名前を調べて、特に抽出された名前がファイル上の情報と照合される下流タスクのコンテキストにおいて、さまざまな文化の名前に対してモデルがどの程度うまく機能するかを比較しました。
文字入力と単語入力を組み合わせたモデルは単語のみのモデルよりも優れており、目に見えないエンティティ値の識別を目的としていない古典的な NER モデルと比較して精度が向上する可能性があることがわかりました。

要約(オリジナル)

State of the art Named Entity Recognition (NER) models have achieved an impressive ability to extract common phrases from text that belong to labels such as location, organization, time, and person. However, typical NER systems that rely on having seen a specific entity in their training data in order to label an entity perform poorly on rare or unseen entities ta in order to label an entity perform poorly on rare or unseen entities (Derczynski et al., 2017). This paper attempts to improve recognition of person names, a diverse category that can grow any time someone is born or changes their name. In order for downstream tasks to not exhibit bias based on cultural background, a model should perform well on names from a variety of backgrounds. In this paper I experiment with the training data and input structure of an English Bi-LSTM name recognition model. I look at names from 103 countries to compare how well the model performs on names from different cultures, specifically in the context of a downstream task where extracted names will be matched to information on file. I find that a model with combined character and word input outperforms word-only models and may improve on accuracy compared to classical NER models that are not geared toward identifying unseen entity values.

arxiv情報

著者 Alexandra Loessberg-Zahl
発行日 2024-01-23 17:58:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク