Chem-FINESE: Validating Fine-Grained Few-shot Entity Extraction through Text Reconstruction

要約

化学ドメインにおけるきめの細かい少数ショットエンティティ抽出は、2 つの特有の課題に直面しています。
まず、一般的な領域の実体抽出タスクと比較して、化学論文の文には通常、より多くの実体が含まれています。
さらに、エンティティ抽出モデルは通常、ロングテール型のエンティティを抽出することが困難です。
この論文では、これら 2 つの課題に対処するために、新しいシーケンスツーシーケンス (seq2seq) ベースの少数ショット エンティティ抽出アプローチである Chem-FINESE を提案します。
Chem-FINESE には 2 つのコンポーネントがあります。入力文から名前付きエンティティを抽出する seq2seq エンティティ抽出モジュールと、抽出されたエンティティから元の入力文を再構築する seq2seq 自己検証モジュールです。
優れたエンティティ抽出システムはエンティティを忠実に抽出する必要があるという事実から着想を得た、私たちの新しい自己検証モジュールは、エンティティ抽出結果を利用して元の入力文を再構築します。
さらに、抽出プロセス中の過剰なコピーを減らすために、新しいコントラスト損失を設計します。
最後に、分野専門家によって ChemNER スキーマの注釈が付けられた、新しいきめ細かい化学物質抽出データセットである ChemNER+ をリリースします。
ChemNER+ と CHEMET の両方のデータセットを使用した少数ショット設定での実験では、新しく提案したフレームワークがそれぞれ最大 8.26% と 6.84% の絶対 F1 スコアの向上に貢献したことが示されています。

要約(オリジナル)

Fine-grained few-shot entity extraction in the chemical domain faces two unique challenges. First, compared with entity extraction tasks in the general domain, sentences from chemical papers usually contain more entities. Moreover, entity extraction models usually have difficulty extracting entities of long-tailed types. In this paper, we propose Chem-FINESE, a novel sequence-to-sequence (seq2seq) based few-shot entity extraction approach, to address these two challenges. Our Chem-FINESE has two components: a seq2seq entity extractor to extract named entities from the input sentence and a seq2seq self-validation module to reconstruct the original input sentence from extracted entities. Inspired by the fact that a good entity extraction system needs to extract entities faithfully, our new self-validation module leverages entity extraction results to reconstruct the original input sentence. Besides, we design a new contrastive loss to reduce excessive copying during the extraction process. Finally, we release ChemNER+, a new fine-grained chemical entity extraction dataset that is annotated by domain experts with the ChemNER schema. Experiments in few-shot settings with both ChemNER+ and CHEMET datasets show that our newly proposed framework has contributed up to 8.26% and 6.84% absolute F1-score gains respectively.

arxiv情報

著者 Qingyun Wang,Zixuan Zhang,Hongxiang Li,Xuan Liu,Jiawei Han,Heng Ji,Huimin Zhao
発行日 2024-01-18 18:20:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク