要約
アスペクトベースの感情分析 (ABSA) は、テキストを一連の側面に関連付け、それぞれの感情の極性を推測することを目的としています。
最先端のアプローチは、コーパスからアスペクト固有の表現を学習することに重点を置き、事前トレーニングされた言語モデルを微調整することに基づいて構築されています。
ただし、アスペクトは暗黙的に表現されることが多く、十分なラベル付きの例がないと暗黙的なマッピングが難しくなり、実際のシナリオではこれが不足する可能性があります。
このペーパーでは、アスペクトの分類とアスペクトベースの感情サブタスクに対処するための統一フレームワークを提案します。
コーパスの意味情報を利用して暗黙的側面の補助文を構築する仕組みを導入する。
次に、アスペクト自体ではなく、この補助文に応じてアスペクト固有の表現を学習するよう BERT に奨励します。
ABSA タスクと Targeted-ABSA タスクの両方について、実際のベンチマーク データセットに対するアプローチを評価します。
私たちの実験では、すべてのデータセットにわたってアスペクトの分類とアスペクトに基づくセンチメントにおいて、大幅な改善幅があり、一貫して最先端のパフォーマンスを達成していることが示されています。
BERT-ASC コードは https://github.com/amurtadha/BERT-ASC で入手できます。
要約(オリジナル)
Aspect-based sentiment analysis (ABSA) aims to associate a text with a set of aspects and infer their respective sentimental polarities. State-of-the-art approaches are built on fine-tuning pre-trained language models, focusing on learning aspect-specific representations from the corpus. However, aspects are often expressed implicitly, making implicit mapping challenging without sufficient labeled examples, which may be scarce in real-world scenarios. This paper proposes a unified framework to address aspect categorization and aspect-based sentiment subtasks. We introduce a mechanism to construct an auxiliary-sentence for the implicit aspect using the corpus’s semantic information. We then encourage BERT to learn aspect-specific representation in response to this auxiliary-sentence, not the aspect itself. We evaluate our approach on real benchmark datasets for both ABSA and Targeted-ABSA tasks. Our experiments show that it consistently achieves state-of-the-art performance in aspect categorization and aspect-based sentiment across all datasets, with considerable improvement margins. The BERT-ASC code is available at https://github.com/amurtadha/BERT-ASC.
arxiv情報
著者 | Murtadha Ahmed,Bo Wen,Shengfeng Pan,Jianlin Su,Luo Ao,Yunfeng Liu |
発行日 | 2024-08-23 07:46:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google