Supplementary Features of BiLSTM for Enhanced Sequence Labeling

要約

シーケンスのラベル付けタスクでは、特定の文内の各単語の文表現を計算する必要があります。
一般的な方法では、双方向ロングショートタームメモリ(BiLSTM)層を組み込んでシーケンス構造情報を強化します。
ただし、経験的証拠 Li (2020) は、シーケンス ラベリング タスクの文表現を生成する BiLSTM の能力が本質的に制限されていることを示唆しています。
この制限は主に、完全な文表現を形成するために過去および将来の文表現の断片を統合することに起因します。
この研究では、BiLSTM の最初と最後のセルの両方にある文表現全体が、各セルの個々の文表現を補完できることを観察しました。
したがって、我々は、BiLSTM フレームワーク内で未来および過去の文表現全体を各セルの文表現に統合するグローバル コンテキスト メカニズムを考案しました。
デモンストレーションとして BiLSTM に BERT モデルを組み込み、固有表現認識 (NER)、品詞 (POS) タグ付け、エンドツーエンドのアスペクトベースのセンチメント分析などのシーケンス ラベリング タスクの 9 つのデータセットで徹底的な実験を実施します。
(E2E-ABSA)。
調査したすべてのデータセットにわたって、F1 スコアと精度が大幅に向上したことがわかりました。

要約(オリジナル)

Sequence labeling tasks require the computation of sentence representations for each word within a given sentence. A prevalent method incorporates a Bi-directional Long Short-Term Memory (BiLSTM) layer to enhance the sequence structure information. However, empirical evidence Li (2020) suggests that the capacity of BiLSTM to produce sentence representations for sequence labeling tasks is inherently limited. This limitation primarily results from the integration of fragments from past and future sentence representations to formulate a complete sentence representation. In this study, we observed that the entire sentence representation, found in both the first and last cells of BiLSTM, can supplement each the individual sentence representation of each cell. Accordingly, we devised a global context mechanism to integrate entire future and past sentence representations into each cell’s sentence representation within the BiLSTM framework. By incorporating the BERT model within BiLSTM as a demonstration, and conducting exhaustive experiments on nine datasets for sequence labeling tasks, including named entity recognition (NER), part of speech (POS) tagging, and End-to-End Aspect-Based sentiment analysis (E2E-ABSA). We noted significant improvements in F1 scores and accuracy across all examined datasets.

arxiv情報

著者 Conglei Xu,Kun Shen,Hongguang Sun
発行日 2023-06-23 13:47:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク