Exploring ChatGPT-based Augmentation Strategies for Contrastive Aspect-based Sentiment Analysis

要約

アスペクトベースのセンチメント分析 (ABSA) には、文中の特定のアスペクト用語に対するセンチメントを特定することが含まれており、製品、サービス、またはトピックの特定の側面に関する微妙な視点や態度を明らかにすることができます。
ただし、ラベル付きデータが不足しているため、高品質のモデルをトレーニングするのに大きな課題が生じています。
この問題に対処するために、パフォーマンスの高い大規模言語モデル (LLM) である ChatGPT を使用したデータ拡張の可能性を調査し、アスペクト用語に対する感情分類のパフォーマンスを強化します。
具体的には、ChatGPT に基づく 3 つのデータ拡張戦略 (コンテキスト重視、アスペクト重視、およびコンテキスト アスペクト データ拡張手法) を検討します。
コンテキストに焦点を当てたデータ拡張では、アスペクト用語を変更せずに、文内のコンテキスト単語の単語表現を変更することに焦点を当てます。
対照的に、アスペクトに焦点を当てたデータ拡張は、アスペクトの用語を変更しながら、コンテキストの単語を変更しないことを目的としています。
Context-Aspect データ拡張では、上記の 2 つのデータ拡張を統合して拡張サンプルを生成します。
さらに、ABSA タスクに対照学習を組み込んでパフォーマンスを向上させます。
広範な実験により、3 つのデータ拡張手法すべてがパフォーマンスの向上につながり、コンテキスト アスペクトのデータ拡張戦略が最も優れたパフォーマンスを示し、ベースライン モデルのパフォーマンスを上回っていることが示されています。

要約(オリジナル)

Aspect-based sentiment analysis (ABSA) involves identifying sentiment towards specific aspect terms in a sentence and allows us to uncover nuanced perspectives and attitudes on particular aspects of a product, service, or topic. However, the scarcity of labeled data poses a significant challenge to training high-quality models. To address this issue, we explore the potential of data augmentation using ChatGPT, a well-performing large language model (LLM), to enhance the sentiment classification performance towards aspect terms. Specifically, we explore three data augmentation strategies based on ChatGPT: context-focused, aspect-focused, and context-aspect data augmentation techniques. Context-focused data augmentation focuses on changing the word expression of context words in the sentence while keeping aspect terms unchanged. In contrast, aspect-focused data augmentation aims to change aspect terms but keep context words unchanged. Context-Aspect data augmentation integrates the above two data augmentations to generate augmented samples. Furthermore, we incorporate contrastive learning into the ABSA tasks to improve performance. Extensive experiments show that all three data augmentation techniques lead to performance improvements, with the context-aspect data augmentation strategy performing best and surpassing the performance of the baseline models.

arxiv情報

著者 Lingling Xu,Haoran Xie,S. Joe Qin,Fu Lee Wang,Xiaohui Tao
発行日 2024-09-17 14:12:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク