要約
固有表現認識 (NER) の最近の進歩により、視覚信号を組み込むタスクの境界が押し広げられ、マルチモーダル NER (MNER) やグラウンデッド MNER (GMNER) などの多くの亜種が誕生しました。
これらのタスクの主な課題は、モデルがトレーニング中に表示されないエンティティに一般化できる必要があり、ノイズの多い注釈を含むトレーニング サンプルを処理できる必要があることです。
この障害に対処するために、3 つの NER バリアントすべてを効果的に処理できるモデルである SCANNER (Span CANdidate detecting and こうした NER の検出と認識) を提案します。
SCANNER は 2 段階の構造になっています。
最初の段階でエンティティの候補を抽出し、それをクエリとして使用して知識を取得し、さまざまなソースから知識を効果的に引き出します。
このエンティティ中心に抽出された知識を活用して、目に見えないエンティティに対処することで、パフォーマンスを向上させることができます。
さらに、NER データセット内のノイズの多いアノテーションから生じる課題に取り組むために、新しい自己蒸留手法を導入し、固有の不確実性を持つトレーニング データを処理する際のモデルの堅牢性と精度を強化しました。
私たちのアプローチは、NER ベンチマークで競争力のあるパフォーマンスを示し、MNER と GMNER ベンチマークの両方で既存の手法を上回っています。
さらなる分析により、提案された蒸留および知識利用方法により、さまざまなベンチマークにおけるモデルのパフォーマンスが向上することがわかりました。
要約(オリジナル)
Recent advances in named entity recognition (NER) have pushed the boundary of the task to incorporate visual signals, leading to many variants, including multi-modal NER (MNER) or grounded MNER (GMNER). A key challenge to these tasks is that the model should be able to generalize to the entities unseen during the training, and should be able to handle the training samples with noisy annotations. To address this obstacle, we propose SCANNER (Span CANdidate detection and recognition for NER), a model capable of effectively handling all three NER variants. SCANNER is a two-stage structure; we extract entity candidates in the first stage and use it as a query to get knowledge, effectively pulling knowledge from various sources. We can boost our performance by utilizing this entity-centric extracted knowledge to address unseen entities. Furthermore, to tackle the challenges arising from noisy annotations in NER datasets, we introduce a novel self-distillation method, enhancing the robustness and accuracy of our model in processing training data with inherent uncertainties. Our approach demonstrates competitive performance on the NER benchmark and surpasses existing methods on both MNER and GMNER benchmarks. Further analysis shows that the proposed distillation and knowledge utilization methods improve the performance of our model on various benchmarks.
arxiv情報
著者 | Hyunjong Ok,Taeho Kil,Sukmin Seo,Jaeho Lee |
発行日 | 2024-04-02 13:05:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google