Trading Syntax Trees for Wordpieces: Target-oriented Opinion Words Extraction with Wordpieces and Aspect Enhancement

要約

最先端のターゲット指向意見語抽出 (TOWE) モデルは通常、単語レベルで動作する BERT ベースのテキスト エンコーダと、構文ツリーから抽出された構文情報を組み込んだグラフ畳み込みネットワーク (GCN) を使用します。
これらの方法では、GCN で得られるゲインが限られており、BERT ワードピースを使用するのが困難です。
一方、BERT 単語片は、珍しい単語や文脈情報が不十分な単語を表現するのに効果的であることが知られています。
この問題に対処するために、この作業では、メソッドのアーキテクチャから GCN コンポーネントを完全に削除することで、構文ツリーを BERT ワードピースと交換します。
TOWE のパフォーマンスを向上させるために、エンコード中のアスペクト表現の損失の問題に取り組みます。
入力として文のみを利用するのではなく、文とアスペクトのペアを使用します。
私たちの比較的シンプルなアプローチは、ベンチマーク データセットで最先端の結果を達成し、さらなる研究のための強力なベースラインとして機能するはずです。

要約(オリジナル)

State-of-the-art target-oriented opinion word extraction (TOWE) models typically use BERT-based text encoders that operate on the word level, along with graph convolutional networks (GCNs) that incorporate syntactic information extracted from syntax trees. These methods achieve limited gains with GCNs and have difficulty using BERT wordpieces. Meanwhile, BERT wordpieces are known to be effective at representing rare words or words with insufficient context information. To address this issue, this work trades syntax trees for BERT wordpieces by entirely removing the GCN component from the methods’ architectures. To enhance TOWE performance, we tackle the issue of aspect representation loss during encoding. Instead of solely utilizing a sentence as the input, we use a sentence-aspect pair. Our relatively simple approach achieves state-of-the-art results on benchmark datasets and should serve as a strong baseline for further research.

arxiv情報

著者 Samuel Mensah,Kai Sun,Nikolaos Aletras
発行日 2023-05-18 15:22:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク