要約
StackOverflow は、膨大な質問リポジトリと限られたラベル付きサンプルを備えているため、アノテーションに関する課題が生じています。
私たちは、メタ学習を活用した少数ショットの固有表現認識 (NER) 手法である RoBERTa+MAML を提案することで、このギャップに対処します。
StackOverflow NER コーパス (27 エンティティ タイプ) で評価された私たちのアプローチは、ベースラインと比較して F1 スコアの 5% の向上を達成しました。
結果をさらに改善し、ドメイン固有のフレーズ処理により結果を強化しました。
要約(オリジナル)
StackOverflow, with its vast question repository and limited labeled examples, raise an annotation challenge for us. We address this gap by proposing RoBERTa+MAML, a few-shot named entity recognition (NER) method leveraging meta-learning. Our approach, evaluated on the StackOverflow NER corpus (27 entity types), achieves a 5% F1 score improvement over the baseline. We improved the results further domain-specific phrase processing enhance results.
arxiv情報
著者 | Xinwei Chen,Kun Li,Tianyou Song,Jiangjian Guo |
発行日 | 2024-04-15 01:43:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google